微信扫码
与创始人交个朋友
我要投稿
Anthropic 的顶级提示工程师们——Amanda Askell、Zack Witten、David Hershey齐聚一堂,畅聊提示工程的那些事儿,整个对话1个多小时,如果你想了解顶级的AI公司如何思考提示工程的,这可能是最好的资源
这里我们总结了本次对话提及到一些核心观点,也给对话内容划了重点附在后面,当然看原文是最好的(请大家自行搜索AI prompt engineering: A deep dive /Anthropic)
这不是说要把提示写得简单幼稚,而是要清晰、准确、易懂,让 AI 能够轻松理解你的意图,即使它对你的专业领域一无所知 就像 Amanda 说的,写提示时要时刻想着一个“受过教育的门外汉”,他会问哪些问题?他会怎么理解这些概念?这需要提示工程师具备良好的沟通能力和换位思考能力,才能把复杂的概念用通俗易懂的语言表达出来,让 AI “秒懂”
这才是提示工程的精髓!提示工程师需要将自己对任务的理解、目标、期望、以及所有相关的背景知识,都清晰地表达出来,并“灌输”到 AI 模型中。这就像是在把自己的大脑复制一份,让 AI 能够像你一样思考问题。
AI 技术发展日新月异,但无论 AI 变得多么强大,我们都需要 “压榨” 出 AI 的极限性能,才能实现更复杂、更高级的任务。而提示工程就是 “压榨” AI 潜力的关键!
这里给大家划个重点
1. Defining prompt engineering (定义提示工程)
提示工程就像编程,只不过是用自然语言来“编程”。? 你不是在跟 AI 闲聊,而是在用语言引导 AI 完成任务
提示工程需要考虑系统层面的问题,例如数据来源、延迟、数据量等,并将其整合到整个系统中
写提示就像写论文,但现在写的“论文”会被当成代码来对待,需要版本控制、实验跟踪等
2. What makes a good prompt engineer (如何成为一名优秀的提示工程师)
清晰的沟通能力:准确描述任务,并考虑到各种边缘情况
快速迭代能力:不断尝试不同的提示,找到最佳方案
逆向思维能力:站在 AI 的角度思考问题,预测其反应,并解决潜在的误解
系统性思考能力:分析任务所需的全部信息,而不是只关注自己已知的部分
善于从模型输出中学习:仔细阅读 AI 的回答,从中发现问题并改进提示
3. Refining prompts (如何改进提示)
让模型解释提示:让 AI 指出提示中不清楚或有歧义的地方
让模型修改提示:如果 AI 出现错误,可以让它分析原因并尝试修改提示,使其下次能够正确回答
预测用户的真实输入:不要只考虑理想情况,要预测用户可能会输入的各种奇怪的内容,例如错别字、语法错误、无意义的词语等。
4. Honesty, personas and metaphors in prompts (提示中的诚实、角色扮演和隐喻)
不要对模型撒谎:AI 现在已经很聪明了,没必要骗它。直接告诉它你的真实意图,反而更容易得到想要的结果
慎用“角色扮演”:告诉 AI 扮演某个角色,例如老师、医生等,可能会误导 AI,使其无法完成你真正想要的任务
隐喻有时有用,但要谨慎使用:用隐喻来帮助 AI 理解任务,有时会有帮助,但要确保隐喻恰当,并且 AI 能够理解你的意图
5. Model reasoning (模型推理)
思维链 (CoT) 确实有效,但它究竟是不是真正的推理,目前还存在争议
即使 AI 的推理过程存在错误,但只要最终答案正确,就说明 CoT 技术是有效的
可以通过结构化 CoT 提示、提供推理示例等方式来提高 AI 的推理能力
6. Enterprise vs research vs general chat prompts (企业级提示、研究型提示和聊天型提示)
企业级提示:更注重可靠性和一致性,通常会包含大量示例,以确保 AI 在各种情况下都能给出正确的答案
研究型提示:更注重多样性和创造性,通常会避免使用过多示例,以鼓励 AI 探索更多可能性
聊天型提示:更注重交互性和趣味性,可以随意发挥,不用太在意细节
7. Tips to improve prompting skills (提高提示技巧的建议)
多阅读其他人的提示,尤其是那些优秀的提示,从中学习他们的技巧
多做实验,尝试不同的提示方法,看看哪种效果最好
挑战 AI 的极限,尝试让它完成一些你认为它不可能完成的任务,从中学习 AI 的能力边界
8. Jailbreaking (越狱)
越狱攻击利用了 AI 系统的漏洞,通过精心设计的提示,让 AI 做出一些违反规则或预期之外的行为,需要了解 AI 系统的工作原理和训练过程,才能找到绕过安全限制的方法,有时会用到社会工程学技巧,例如假装自己是 AI 的“朋友”,或者用一些诱惑性的语言来欺骗 AI
9. Evolution of prompt engineering (提示工程的演变)
随着 LLM 的不断发展,一些早期的提示技巧已经不再适用,例如 “重复某个词语” 或 “使用特定的语法结构”。现在的 LLM 更善于理解自然语言,我们可以用更简洁、更直接的方式来编写提示。我们对 LLM 的能力越来越有信心,可以放心地向它提供更多信息和上下文
10. Future of prompt engineering (提示工程的未来)
AI 会变得越来越聪明,能够更好地理解我们的意图,但我们仍然需要清晰地表达我们的目标。提示工程工具将会更加强大,可以帮助我们更轻松地编写提示,例如自动生成示例、识别潜在问题等等
人机交互方式将会发生改变,我们将不再只是输入文字,而是通过更直观、更自然的方式与 AI 互动,AI 可能会反过来“提示”我们,例如询问我们更详细的需求,或者提供一些建议和选
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-30
关于大模型的使用——提示词工程
2024-11-25
读屏不靠截图:ChatGPT 客户端的原理、实现与边界
2024-11-25
还在抓耳挠腮想问题?这个Prompt教你用逆向思维快速理清问题!
2024-11-24
面向开发人员的 ChatGPT 提示工程
2024-11-24
工作流串联李继刚的 7 个神级 prompt后,我解决了:为什么单身、高血压如何预防、要不要跳槽、小红书深度文案(万字干货)
2024-11-22
如何写出高质量的 prompt
2024-11-22
微软发现不同prompt模版会导致最大40%性能差距!
2024-11-22
原理解析:17岁高中生「神级 Prompt,把 Claude 强化成满血 o1」
2024-06-29
2023-06-08
2024-08-20
2024-06-27
2024-06-14
2024-07-09
2024-07-12
2024-09-17
2024-06-26
2024-06-29