支持私有云部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


李宏毅:一堂课搞懂 AI Agent 的原理

发布日期:2025-03-24 21:26:03 浏览次数: 1563 来源:思考机器
推荐语

深入浅出解析AI Agent原理,李宏毅一课带你快速入门。

核心内容:
1. AI Agent基本运作原理与核心循环
2. LLM作为AI Agent的应用与优势分析
3. AI Agent关键能力剖析与实际应用案例

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

李宏毅刚刚发布了《一堂课搞懂 AI Agent 的原理》,非常深入浅出,强烈推荐。


李宏毅认为,从 LLM 的角度来看,它做 AI Agent 任务仍然是在做文字接龙。AI Agent 并不是语言模型的新技术,它比较像语言模型的一个应用。


视频如下:



课程主要内容:


备注:重点信息在第五部分,AI Agent 的关键能力剖析


一、AI Agent 的基本运作原理


核心循环:目标 (Goal) -> 观察 (Observation) -> 行动 (Action)。


Action 影响环境,产生新的 Observation。


循环往复,直至达成目标。


举例:AlphaGo

- 目标:赢棋。

- Observation:棋盘上的棋子位置。

- Action:在棋盘上落子。


与强化学习 (RL) 的关系:

- 传统上,AI Agent的打造依赖 RL 算法。

- RL 的局限性:需要为每个任务单独训练模型。

- 新的思路:能否直接用 LLM 作为 AI Agent?


二、LLM 作为 AI Agent


目标 (文字描述) -> 环境 (转为文字或直接使用图像) -> 行动 (文字描述,需转译为可执行指令)。


LLM 的核心是文字接龙,AI Agent 是 LLM 的一种应用。


本课程没有新的模型被训练,是基于现有LLM通用能力的应用。


历史回顾:2023 年春季出现过一波 AI Agent 热潮 (AutoGPT),但后来降温,因为实际效果不如预期。


LLM 驱动 AI Agent 的优势:

- 行动可能性近乎无限,不再局限于预设行为。

- 无需像 RL 那样定义 Reward,可直接提供错误日志等丰富信息。


三、AI Agent 实例


AI 村民:斯坦福小镇


AI 使用电脑:Cloud Computer Use、ChatGPT Operator。


AI 训练 AI 模型:Google 的 co-scientist 等


四、更即时的互动


需要能够根据环境的实时变化,立刻调整行动。


应用场景:语音对话


五、AI Agent 的关键能力剖析


李宏毅认为 AI Agent 需要三个核心能力:1、需要能够根据历史经验调整行为;2、使用工具;3、规划能力。


(一)根据经验调整行为


传统方法:调整模型参数 (本课程不涉及)。


LLM 的能力:直接提供错误信息,无需调整参数即可改变行为。


关键问题:如何管理和利用过去的经验?


解决方案:Memory 机制,类似于人类的长期记忆。

- Read 模块:从 Memory 中选择与当前问题相关的经验,类似于 RAG 技术。

- Write 模块:决定什么信息应该被记录下来。

- Reflection 模块:对记忆中的信息做抽象、整理,建立经验之间的联系 (Knowledge Graph)。类似于 GraphRAG、HippoRAG。


(二)使用工具


工具定义:只需知道如何使用,无需了解内部运作。


常用工具:搜索引擎、程序 (LLM 自己编写)、其他 AI 模型。


使用工具 = 调用函数 (Function Calling)。


需要开发者搭建桥梁,将 Tool 指令转化为实际的函数调用。


具体工具:

- 搜索引擎 (RAG)

-自己打造工具:LLM 自己编写程序,作为工具使用。

- 其他 AI 作为工具:

文字模型调用语音识别、情绪识别等工具处理语音。

大模型和小模型协同工作。


过度相信工具的风险:LLM 有一定程度的判断力,但有时仍会出错。


使用工具会遇到的问题:内部知识 vs. 外部知识冲突

- LLM 会在内部知识 (信念) 和外部知识 (工具结果) 之间进行权衡。

- 外部知识与 LLM 信念差距越大,LLM 越不容易相信。

- LLM 对自己信念的信心也会影响其是否被外部信息动摇。


另外,使用工具不一定总是更有效率,取决于 LLM 本身的能力。


(三)做计划


当前传统 LLM 的规划能力:介于有和没有之间。


进一步强化规划能力:与环境互动探索 (Tree Search),去除没希望的路径。


Tree Search 缺点:有些动作不可逆。


解决方案:让尝试发生在脑内模拟 (World Model),模拟环境变化。


用脑内小剧场进行规划:思考、验证可能性,模拟世界变化。


DeepSeek-R1 等思考模型确实有类似效果 。


但也存在过度思考的风险:LLM 可能会想太多,停滞不前,甚至直接放弃。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询