AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


一文搞懂什么提示词和提示词工程(Prompt Engineering)
发布日期:2024-10-10 19:28:25 浏览次数: 1601 来源:AI4Bank



大模型很强大,但它是一把屠龙宝刀,需要一个能挥舞的人,否则它就是普通的砍柴刀。

让宝刀发挥作用的,让大模型能为你所用,“提示词”就是秘籍,掌握了“提示词”,你就可以“挥舞大刀,号令天下”。

要写好提示词,首先要理解AI生成文本的基本原理。这部分内容看似复杂,但其实深入浅出地理解后,就能掌握与AI对话的诀窍。

AI生成文本依赖于语言模型,这些模型通过大量的文本数据进行训练,学习语言的结构和模式。常见的AI语言模型如GPT(Generative Pre-trained Transformer),它通过对海量数据的分析,学会了如何在不同语境下生成连贯和有意义的文本。

AI并不像人类那样拥有自主的常识和生活经验,它依赖于提示词提供的上下文信息。这意味着,提示词越清晰、越具体,AI越能理解你的意图。

当用户输入提示词后,AI会通过以下步骤生成回答:

    • 解析提示词:AI首先会解析输入的提示词,提取关键词和语境。

    • 检索知识库:根据解析结果,从训练数据中检索相关信息。

    • 生成文本:结合上下文和检索到的信息,生成连贯的回答。


每一步都依赖于提示词的质量。如果提示词模糊或缺乏具体性,AI的解析和检索过程就会受到影响,最终生成的回答也可能不尽如人意。

很多人还是习惯性的用“搜索”的思维去使用大模型,其实这两者有很大的区别。

搜索是一句话一句话的提问,如果提问的太长了,百度有可能找不到符合条件的记录。但是AI可以一次提问写的很长,目的是把需求说的更清楚,AI可以理解长文,并拆解成关键词去搜索。AI可以理解长文中的语言逻辑,可以按照要求去搜索,并整理搜索到的信息。
所以搜索引擎更多是的理解“关键词”,它通过关键词去匹配,和“语义”几乎没有关系;而AI的提示词像是我们说话,一整段一整段的,描述清楚你的上下文,它通过理解输出。

Anthropic公司(Claude是他们的产品)的几位负责提示词的工程师们一起做了一期播客。在这期博客中,他们主要讲的是提示词和提示词工程,就是怎么跟这些AI模型交流,让它们更好地理解咱们的意思。

这次圆桌会议的核心观点总结如下:

1. Defining prompt engineering (定义提示工程)

提示工程和写代码有点像,但不是用Java和Python,而是用你自己的日常语言来“写代码”。采用对话的方式,引导AI完成你的任务目标

提示工程需要考虑系统层面的问题,例如数据来源、延迟、数据量等,并将其整合到整个系统中

2. What makes a good prompt engineer (如何成为一名优秀的提示工程师)

需要五方面的能力素质

相对清晰的表达能力:清晰准确的描述你的任务,考虑到各种极端或者另外情况

相对快速的迭代能力:不断测试不同的提示词,朝着有利的方向,找到最佳方案

反向思维的能力:能够站在AI模型的角度去思考问题,预测其可能的反应

整体思考能力:尽可能分析任务所需的全部信息,而不是只关注自己已知的部分

反馈的能力:每次都要认真阅读模型的输出,从中发现问题并改进提示词

3. Refining prompts (优化提示)

可以让模型自己解释提示:让大模型自己指出提示中模糊或有歧义的地方

可以让模型自己修改提示:如果大模型的回答出现问题,让它分析可能的原因并尝试修改提示,使得其下次能够正确回答

可以模拟用户的可能输入:不仅考虑正常的情况,要考虑现实中用户可能会输入的各种莫名其妙的内容,例如生僻词、语法错误、错别字、无意义词语等。

4. Honesty, personas and metaphors in prompts (提示中的诚实、角色扮演和隐喻)

谨慎撒谎:大模型非常聪明,你可能骗不了它。所以,直接告诉它你的真实意图,更容易得到预期输出

谨慎使用“角色扮演”:告诉大模型扮演某个角色,例如教师、科学家等,有可能会误导大模型,使其无法完成你真正想要的任务

谨慎使用隐喻:用隐喻来帮助大模型理解任务,有时会有帮助,但要确保隐喻恰当,并且大模型能够理解你的真实意图

5. Model reasoning (模型推理)

思维链(Chains of Thought): 目前还难判断是不是真正的推理,但有效

结构化 CoT:提示、提供推理示例等方式来提高 AI 的推理能力

6. Enterprise vs research vs general chat prompts (企业生产级提示、研究创新型提示和日常聊天型提示)

企业生产级提示:企业稳健经营,所以更注重可靠性和一致性,通过大量示例确保大模型在各种情况下都能给出理想的答案

研究创新型提示:更注重多样性、奇特性和创造性,使用较少示例,以鼓励大模型探索更多可能性

日常聊天型提示:注重双方的交互性和娱乐性,可以自由的发挥,不用太在意具体细节

7. Tips to improve prompting skills (提高提示词技巧的建议)

向他人学习:多阅读别人的提示,尤其是结果证明优秀的提示,学习其技巧

多做实验:尽量尝试不同的提示方法,测试效果

挑战 AI 的极限:展开想象能力,让它完成一些你认为它不可能完成的任务,从中学习大模型的能力边界

8. Evolution of prompt engineering (提示工程的演变)

随着大语言模型的快速升级发展,不同版本的提示技巧已经就过时了,不再适用。现在的大语言更善于理解自然语言,我们可以用更简洁、更直接的方式来编写提示。我们对 LLM 的能力越来越有信心,可以放心地向它提供更多信息和上下文

9. Future of prompt engineering (提示工程的未来)

大模型会变得越来越聪明,能够更好地理解我们的意图,但我们仍然需要清晰地表达我们的目标。提示工程工具将会更加强大,可以帮助我们更轻松地编写提示,例如自动生成示例、识别潜在问题等


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询