微信扫码
与创始人交个朋友
我要投稿
AI Agent 工作流不是让大模型直接生成最终输出,而是多次提示 LLM,使其有机会逐步构建更高质量的输出。接下来,将重点讨论一下 Reflection(反思)。对于实现相对较快的设计模式,已经看到它带来了令人惊讶的性能提升。
我们可能都有过这样的经历:给 ChatGPT/Claude/Gemini 提示词,收到不满意的输出、提供关键反馈以帮助 LLM 改进其响应,然后获得更好的响应的经历。如果使用自动执行提供关键反馈的步骤,让 LLM 自动批评自己的输出并改进其响应,结果会怎样?这就是 Reflection 的关键所在。
要求大模型编写代码任务为例。我们可以提示它直接生成所需的代码来执行某个任务 X。之后,我们可以提示它反思自己的输出,如下所示:
以下是任务 X 的代码:[之前生成的代码]
仔细检查代码的正确性、风格和效率,并对如何改进它提出建设性的批评。
有时这会使 LLM 发现问题并提出建设性建议。接下来,我们可以用上下文提示 LLM,包括 (i) 先前生成的代码和 (ii) 建设性反馈以及 (iii) 要求它使用反馈来重写代码。这可以带来更好的响应。重复批评/重写过程可能会产生进一步的改进。这种自我反思过程使 LLM 能够发现差距并改善其在各种任务上的输出,包括生成代码,编写文本和回答问题等。
我们可以通过给 LLM 提供工具来帮助评估其产出,从而超越自我反思。比如:通过一些单元测试来运行它的代码,以检查它是否在测试用例上生成正确的结果,或者通过 Web Browser 搜索网页以检查文本输出。然后,它可以反思它发现的任何错误,并提出改进的想法。
此外,我们可以使用 Multi-Agent 框架实现 Reflection。我发现创建两个不同的 Agent 很方便,一个用于提示 LLM 生成良好的输出,另一个提示对第一个 Agent 的输出给出建设性的批评。两个 Agent 之间的讨论推动了改进的响应。
Reflection 是一种相对基本的 Agent 工作流类型,但它在一些情况下改善了应用程序的结果。我希望你能在自己的工作中尝试这一设计模式。如果你有兴趣了解更多关 于Reflection 的知识,推荐这些论文:
后续将讨论 AI Agent 其他的设计模式。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-03-30
2024-04-26
2024-05-10
2024-04-12
2024-05-28
2024-05-14
2024-04-25
2024-07-18
2024-04-26
2024-05-06
2024-12-22
2024-12-21
2024-12-21
2024-12-21
2024-12-21
2024-12-20
2024-12-20
2024-12-19