AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


什么?AI时代居然还不懂Prompt?赶紧进来看看吧

发布日期:2025-03-11 20:35:56 浏览次数: 1535 来源:PM墨者
推荐语

掌握Prompt,轻松驾驭AI智能体,高效达成工作目标。

核心内容:
1. Prompt的定义及其在AI交互中的重要性
2. Prompt的两种分类:System prompt和User prompt
3. 如何通过优化Prompt提升AI模型的工作效率和准确性

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

在AI大模型、智能体满天飞的年代,为什么别人能够使用的得心应手,指哪打哪,而你却是问东AI给你回西,怎么用怎么不顺手?其实,这就是你不懂Prompt的原因。不要觉得Prompt会很深奥,其实很简单,我们在使用AI大模型,智能体,AI对话的时候,实际上就已经在使用Prompt,那么我们就聊聊Prompt吧,能够让你对AI做到能够指哪打哪! 
一、什么是Prompt

当我们看到下面这些界面:

这些你输入的,你设置的位置的信息,实际上都是Prompt。

那么,到底什么是Prompt

请记住我这句话:Prompt是我们唯一可以和LLM打交道的方式。

在应用技术层,无论我们做了多么炫酷的设计,最终都是为了找到合适传递给LLMPrompt

比如:

为了让LLM在我们公司的专业的业务领域不要胡说,我们需要将专业的参考资料加入到Prompt

为了让LLM在回答相关数字的时候不要胡说,我们需要将最新的数据加入到Prompt

为了让LLM分析问题时尽量全面,我们需要将问题的思考角度加入到Prompt

为了让LLM处理Excel时能找到准确的数据,我们需要将Excel的表头加入到Prompt;

为了让LLM能替你总结调研报告,我们需要将各项调研结果加入到Prompt;

……

为了让LLM能替我写出更多场景,我们需要将以上样例加入到Prompt;

但是,Prompt可以容纳的字数是有限的。所以,应用层的其他技术,就是在想尽办法,在对的时间,将对的内容,加入到Prompt,才能够让整个语言模型更好的工作。

二、Prompt的分类

在大多数语言工具中,Prompt会被分为两类:

System prompt通常用于提供全局的任务指令或限制条件,告诉模型如何理解和生成响应。

User prompt通常是用户直接提供的问题或请求,系统会在特定回合中将它视为生成响应的核心输入。

如下图,只有User prompt的输入位置,没有System prompt的位置

比如下面这张图,就是既有system prompt,又有user prompt的输入:

虽然这些页面,会将prompt当做两个参数,但是对于LLM来说,实际上他们就是一个prompt.

1、 预处理的代码会将system promptuser prompt拼接在一起,system prompt在前,user prompt在后。

2、当system prompt + user prompt的长度超出了模型的上下文窗口宽度时,预处理代码会优先截取user prompt,而让system prompt完整保留。

还有另外几种分类方式:

1、按照Prompt中的内容结构进行分类:参考资料、样例、指令

将参考资料、样例放在Prompt中,就叫做In-Context-Learning(基于上下文的学习),主要依靠LLM的能力,理解Pompt中的内容,但是需要较长的K窗口宽度。

目前主流模型的K窗口宽度(context window size 32k – 200k之间。即最高20万tokens,然后1个汉字可能对应着1个token,也有可能是2个token,甚至对应3个token。下面可以看看20万tokens大概对应的内容,可以心里有个概念:


2、按照Prompt中的样例数量进行分类:Zero-ShotOne-ShotFew-Shot

Zero-Shot就是一个样例都不给,One-Shot就是给一个样例,Few-Shot就是给多个样例,比如我们之前说的“LLM能替我写出更多场景”就是Few-Shot的。

场景:妈妈在给小孩挑游戏机做礼物,正在比较SwitchPS5

用户:感觉价格方面,Switch性价比高,PS5要贵不少吧?

店员:……

针对问题,利用大模型进行打分,然后根据打分情况,判断样例数不同的满意回答的直观情况。

我们的打分也可以借助LLM来进行,通常来说,不同的大模型之间用来为对方打分回事最直观的,评分标准可以如下:

3、按照Prompt的任务类型进行分类:问答型、检索型、生成型、翻译型、分类型、排序型、摘要型、解释型、逻辑型、格式整理型等。

就比如内容解释型的,就是我们给一大段的如公司规章制度作为prompt,然后LLM基于我们给定的内容去回答,在公司规章制度之外,我们为回答的更精准做的限制越多,回答的就会越精准。

更多的类型,可以看下图:

4、按照Prompt指令模块进行分类:身份设定、背景设定、目标设定、输入示例、输出格式设定、输入-输出示例、限制条件等

就比如,我们做的一个Agent或者智能体,做的是一个垂直领域的内容,那么我们就可以在prompt中去做一定的限制条件,在垂直领域之外的问题,我们就不做回答,不需要LLM自行去解答一些非必要问题。


讲了这么多,可能会比较散,但是我相信大家能够对Prompt有一个大致的了解,还是开头那句话,Prompt是我们唯一可以和LLM打交道的方式。也希望大家能够记住这句话,这样我们在使用这些大模型或者智能体的时候,不至于南辕北辙哈!


关注下方我的公众号

我已经建了一个群,回复【666】获取群二维码,只需要回复蓝色数字哦


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询