微信扫码
添加专属顾问
我要投稿
深入解析提示工程,掌握与AI对话的艺术。核心内容:1. 提示工程的定义与本质,如何通过迭代优化AI提示2. 优秀提示工程师的六大特质及其重要性3. 提升提示技能的实用建议与提示工程的未来发展
6个月前,Anthropic制作了一个时长1小时16分的视频"AI prompt engineering: A deep dive"。这份时长超一个小时的视频讨论了提示工程,内容涉及研究、消费者(也就是大模型的用户)和企业等不同角度的观点。视频中一共有四位嘉宾:
Alex:Anthropic开发者关系负责人,曾任提示工程师 [00:30]。
David:Anthropic客户技术支持,专注于微调和语言模型应用 [00:52]。
Amanda:Anthropic微调团队负责人,致力于使Claude更诚实和友善 [01:10]。
Zach:Anthropic提示工程师,参与提示生成器和教育材料的开发 [01:22。
我曾试着用Gemini来总结视频中的要点,但一些非常有价值的细节很难用这种方式获取,所以我坚持看完了这个视频。
这份视频中有几个相对清晰且重要的论题:
视频在开头讨论了为什么提示工程被称之为工程。四位嘉宾通过举例来说明"工程"体现在试错和迭代的过程,通过实验和设计来优化提示。几位工程师指出提示可以视为自然语言代码,但应避免过度抽象,保持清晰的任务描述。
关于"工程"的这个解释,让我感觉与大模型对话其实并不太适合普通人,因为普通人都没有"工程"概念(试错、迭代)。大部分普通用户都是尝试、评价的模式。也就是尝试了某个大模型产品,觉得其不好用或者好用。但实际上,与大模型沟通是一种工程行为,需要不断的尝试让回复慢慢符合用户的期望。这件事在deepseek刚火和后来降温这段时间体现的淋漓尽致。刚开始,"深度思考"模式让很多普通人有了"我也行"的感觉,但随着使用的用户越来越多,很多人开始质疑deepseek的"胡编"。这件事其实跟大模型一点关系没有,大模型的工作原理决定了它的生成其实是一种高级的"算法",而非基于人类智力认知的判断、分析、回复。而且大模型的这种回复是一种黑箱行为,这就让判断对错又回到了人的身上。所以有一些人问我Ai能不能做这个,能不能做那个,我第一反应就是你得先确定你自己能不能知道如何做。
几位嘉宾共同给出了优秀提示工程师的特质:
从以上这6点也验证了上一个论题中的最后一句话:AI能不能做某件事的主要决定因素是人能不能知道怎么做这件事。这6点实际上对人的要求非常高,也就证明了第一个论题中我认为普通人其实没办法用好大模型的这个论点。但至少我们能往这个方向上靠近,知道如何与大模型更好的对话。
在这一个主题中,Amanda提出了一个非常重要的提示技巧:在遇到错误的时候,向AI提出这个问题"I don't want you to follow these instructions. I just want you to tell me the ways in which they're unclear or any ambiguities, or anything you don't understand.",也就是说在输入提示的时候,可以让AI自己判断这个提示是否存在问题,以及补充哪些内容让提示更加有效。Amanda说自己从未相信过大模型,即使作为Anthropic的工程师,每次Claude的输出她都会认真阅读以确定内容是否准确。另外Amanda也坦言,AI并非无所不能,避免陷入"完美提示"的误区,适时放弃无法解决的问题才是明智的。
这个主题的结论是我没想到的。Amanda在这个主题中讲到,随着模型的"智能"越来越高,角色扮演这件事就越来越没有必要。而且Amanda认为,角色扮演这件事更像是"欺诈",让AI扮演一个角色就像一种欺诈行为。对于更强大的模型,没必要"说谎",直接清晰地表达意图即可。这一主题给我的启发是,在对话中其实更应该强调的是用户的角色,让AI理解用户的角色,让AI从用户角色的角度来输出。举个例子来说,只要说清楚,我是一个小学生,我的知识背景是什么样的,AI就可以很好的根据用户的背景信息来组织输出,而且不是让AI扮演一个小学老师来组织输出。所以只需要将AI想象成刚到岗的员工,提供清晰的任务描述和背景信息即可。
几位工程师共同给出了以下提升技能的建议:
阅读优秀的提示示例,学习其结构和技巧 [51:14]。
反复实践,保持好奇心和乐趣 [51:55]。
将提示交给他人阅读,获取反馈 [51:55]。
尝试让模型完成超出其能力范围的任务 [52:49]。
在这一主题中有一个非常重要的观点:哲学思辨能力在提示工程中具有重要意义,能够清晰地表达复杂的概念 [01:14:26]。
这个观点与提示词大神"李继刚"老师的说法类似,哲学中的思想是人类思想的极致压缩。
哲学思辨训练人们清晰、准确地表达复杂的想法和概念 [01:14:26]。这对于提示工程至关重要,因为你需要将你的需求和期望准确地传达给模型。
哲学思辨强调逻辑和批判性思维,这有助于分析和理解问题,从而设计出更有效的提示。
哲学思辨鼓励抽象思维,这对于理解模型的行为和预测其输出非常有用。
哲学思辨可以帮助你更准确地表达你的想法,避免歧义,从而提高提示的有效性 [01:15:32]。
哲学思辨可以帮助你定义新的概念,并将其传达给模型 [01:13:39]。
Amanda认为随着模型能力的提升,曾经的提示技巧可能会失效,但是哲学思辨能力依然是提示工程中一种重要的能力。
以上就是视频中的主要内容,Amanda在视频的最后提到"大脑外部化",这个概念我反复听了数遍才明白其意义。"大脑外部化"指的是将大脑中关于如何解决问题、完成任务的思考过程、知识和策略,清晰地、结构化地表达出来,使其能够被外部的系统(也就是大模型)所理解和执行。
你可以这么理解:
清晰地表达你的思考过程: 这意味着你需要将原本可能模糊、直觉式的思考过程分解为具体的步骤、规则和约束。你需要像在教一个不了解情况的人一样,详细地说明每一步的原因和目的。
知识的显性化: 你需要将你拥有的相关知识明确地表达出来,即使这些知识在你看来是“理所当然”的。模型并不具备你所有的背景知识,因此你需要将必要的信息提供给它。
策略的传达: 你需要告诉模型你希望它采取什么样的策略来解决问题。例如,你是希望它一步步推理,还是先进行头脑风暴,或者遵循特定的框架。
将内在的意图转化为外在的指令: 你大脑中想要达成的目标和意图需要被准确地翻译成模型能够理解和执行的自然语言指令(即提示)。
用一个比喻来说:
"""
想象你是一位经验丰富的厨师,你脑海中有一套完美的菜谱和烹饪技巧。而大型语言模型就像一位刚刚入门的学徒。
在提示工程的语境下,“大脑外部化”意味着你需要将你解决问题的逻辑、所需的知识、期望的输出格式等等,都清晰地体现在你的提示中,从而引导模型按照你的意图工作。
"""
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-13
YAML风格提示词:打造AI交流的结构化语言
2025-04-12
玩转提示工程:让AI听懂人话的实战手册
2025-04-12
提示工程中的思维结构:让大语言模型更聪明地思考
2025-04-12
提示词永生——以吴恩达的提示词工程为例
2025-04-11
Google 官方提示工程 (Prompt Engineering)白皮书完整翻译和 PDF 下载
2025-04-11
为什么提示工程,可以驾驭大模型?
2025-04-10
别再只知道“请帮我写…”了,看看谷歌如何解构 Prompt Engineering (全是干货)
2025-04-09
经典大模型提示词工程技术路线概述
2024-08-20
2024-06-29
2023-06-08
2024-09-17
2024-06-27
2024-06-26
2024-07-09
2024-07-12
2024-09-16
2024-06-14
2025-04-11
2025-02-25
2025-02-21
2025-01-05
2025-01-04
2024-12-15
2024-11-15
2024-11-01