微信扫码
添加专属顾问
我要投稿
OpenAI GPT-4.1模型的新特性与Agent构建指南,助你打造更听话的智能助手。核心内容:1. GPT-4.1模型的新特性与优化提示词的必要性2. 构建Agent的三个核心要素:持久性、工具调用与遵循指令3. 提示词的最佳实践示例,提升Agent性能与可控性
嘿,大家好!这里是一个专注于前沿AI和智能体的频道~
前天,OpenAI发布GPT4.1,还额外上线了一份提示词指南。内容上主要是针对 新版GPT4.1模型的特点,教大伙如何优化提示词,进而构建出更好的Agent。
GPT-4.1 虽然在编码、指令遵循和长上下文能力上比前辈 GPT-4o 有了显著提升,但也带了点“小个性”——它变得更“听话”了,严格甚至可以说是“字面地”理解你的指令,不再像以前那样擅长“揣摩上意”。这意味着,我们以前用得顺手的 Prompt 可能需要调整,否则效果可能会打折扣。
为什么出了一份新的提示词指南?
简单来说,GPT-4.1 有两大变化:
正是因为这个“严格”,过去的很多 Prompt "最佳实践"可能需要更新。
如何榨干GPT-4.1的潜力?
指南一上来就强调,GPT-4.1特别适合构建Agentic工作流。OpenAI内部的Agent测试在SWE-bench上解决了55%的问题,表现还不错!要充分利用它的Agent能力,system prompt中必须加入三个核心要素,这3条可以让SWE-bench评测提高20%~
告诉模型这是个多轮任务,需要一直工作到问题解决,不是回答一句就完事。
官方示例 Prompt: (翻译了一下)
You are an agent - please keep going until the user’s query is completely resolved, before ending your turn and yielding back to the user. Only terminate your turn when you are sure that the problem is solved.
->
你是一个智能助手 - 请持续工作直到用户的问题完全解决,再结束你的回合。只有当你确定问题已解决才停止。
鼓励模型在不确定时主动用工具查询,而不是瞎猜
官方示例 Prompt: (翻译了一下)
If you are not sure about file content or codebase structure pertaining to the user’s request, use your tools to read files and gather the relevant information: do NOT guess or make up an answer.
->
如果你不确定文件内容或代码结构,请使用工具查询相关信息:绝对不要猜测或编造答案。
引导模型在每次调用工具前先规划,调用后再反思。这能让模型“把思考过程说出来”,提高解决问题的能力。(4.1不是推理模型),可以提高4% swe-bench。
官方示例 Prompt: (翻译了一下)
You MUST plan extensively before each function call, and reflect extensively on the outcomes of the previous function calls. DO NOT do this entire process by making function calls only, as this can impair your ability to solve the problem and think insightfully.
->
你必须在每次函数调用前进行详细规划,并在调用后对结果进行深入反思。不要只依靠函数调用解决整个问题,这会削弱你的思考能力。
除了系统提示,指南还强调了工具调用的正确姿势:
前面说了,GPT-4.1 对指令的理解非常字面化。这要求我们的指令必须极其清晰、具体、无歧义。含糊不清或者依赖模型“悟性”的指令,效果会大打折扣。
指南中那个复杂的客服 Agent 例子就很好地体现了这些原则:规则详细具体、分层组织、并有示例佐证。
引导模型像人一样“思考”,把复杂问题分解成小步骤解决
简单的思维链指令:
...First, think carefully step by step about what documents are needed to answer the query. Then, print out the TITLE and ID of each document. Then, format the IDs into a list.
->
...首先,仔细逐步思考需要哪些文档来回答查询。然后,列出每个文档的标题和ID。最后,将ID格式化为列表。
进阶 CoT:如果发现模型思考过程有偏差,可以通过更具体的指令来规范它的思考策略。比如,指南里给了一个例子,要求模型先做查询分析 (Query Analysis),再做上下文分析 (Context Analysis),最后综合 (Synthesis)。
# Role and Objective
# Instructions
## Sub-categories for more detailed instructions
# Reasoning Steps (e.g., Chain of Thought instructions)
# Output Format
# Examples
## Example 1
# Context (if any)
# Final instructions and prompt to think step by step (e.g., the CoT starter)
->
# 角色和目标
# 指令
## 更详细指令的子类别
# 思考步骤(如思考链指令)
# 输出格式
# 示例
## 示例1
# 上下文(如有)
# 最终指令和逐步思考提示
<doc id=1 title=”...”>...</doc>
) 和类表格 (ID: 1 | TITLE: ... | CONTENT: ...
) 格式效果好,JSON表现较差原始指南地址:https://cookbook.openai.com/examples/gpt4-1_prompting_guide
好了,这就是我今天想分享的内容。如果你对构建AI智能体感兴趣,别忘了点赞、关注噢~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-20
2024-06-29
2023-06-08
2024-09-17
2024-06-27
2024-06-26
2024-07-09
2024-07-12
2024-09-16
2024-06-14
2025-04-20
2025-04-16
2025-04-11
2025-02-25
2025-02-21
2025-01-05
2025-01-04
2024-12-15