AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Claude 团队内部分享!什么时候该用Workflow和Agent,如何用简单模式构建有效的 LLM Agent ?
发布日期:2025-01-04 16:27:41 浏览次数: 1594 来源:老码小张


 

过去一年里,anthropic团队,对,就是那个做 Claude 团队的,与各行各业的开发者合作,探索如何用大型语言模型(LLM)构建智能 Agent(代理)。令人意外的是,成功的案例往往不是靠复杂的框架或高级工具,而是用简单、可组合的模式实现。这篇文章,我想和大家分享一些他们的实际经验和建议,帮你快速上手构建高效的 Agent 系统。

什么是 Agent?

Agent 的定义非常灵活。有人觉得它是完全自主运行的系统,可以调用工具解决复杂任务;也有人觉得它更像是能自动化执行特定流程的助手。在我们看来,Agentic 系统大致可以分为两类:

  1. 1. 工作流(Workflow)
    这种系统通过代码预先定义好每一步流程,类似“流水线”。
  1. 2. Agent
    这种系统更灵活,模型可以动态决定任务的执行方式、工具的调用顺序,不需要提前硬编码所有逻辑。

在下文中,我会详细介绍这两类系统的构建方式。


Agent 用在什么场景更合适?

一个实用的建议是:尽可能用简单的解决方案。如果单靠一个 LLM API 调用就能满足需求,根本不需要用到复杂的 Agent 系统。

什么时候用 Agent?

  • • 需要灵活决策时:比如大规模处理开放性任务,无法预先规划所有逻辑时。
  • • 对模型驱动的结果有依赖时:Agent 能根据环境动态调整策略,适合需要灵活响应的场景。

什么时候不用 Agent?

  • • 任务明确时:比如固定流程的自动化任务,用工作流系统(Workflow)更高效且稳定。
  • • 注重成本和延迟时:Agent 系统通常更耗时且成本高。

必备的技术构建模块

在开始构建前,我们可以把 Agent 系统拆解为几个基础模块,每个模块可以单独实现,也可以组合使用。

  1. 1. 增强型 LLM(Augmented LLM)
    这是 Agent 系统的核心。通过给模型加上检索(Retrieval)、工具(Tools)和记忆(Memory)等增强功能,模型不仅能生成文本,还能调用工具或保存上下文信息。

代码示例(Python 使用 OpenAI API 调用工具):

import openai

def augmented_llm(prompt, tool_results):
    """简单的增强型 LLM 调用"""
    augmented_prompt = f"{prompt}\nTools results: {tool_results}"
    response = openai.ChatCompletion.create(
        model="gpt-4",
        messages=[{"role""system""content""You are an assistant."},
                  {"role""user""content": augmented_prompt}],
    )
    return response.choices[0].message["content"]

# 示例:调用一个虚拟工具获取数据后交给模型处理
tool_results = {"query""current weather""result""sunny, 25°C"}
print(augmented_llm("What's the weather?", tool_results))
  1. 2. 工作流模式(Workflow Patterns)
    根据不同的需求,我们可以设计多种工作流模式。以下是几种常见模式:

工作流模式详解

1. Prompt Chaining

将复杂任务拆解为多个小任务,每个任务的输出作为下一个任务的输入。

适用场景

  • • 撰写营销文案后翻译成多种语言;
  • • 先生成文章大纲,再用大纲写内容。

代码示例

# Prompt Chaining 示例:生成文章大纲 + 根据大纲生成内容
def generate_outline(topic):
    return f"Outline for {topic}: 1. Introduction, 2. Main Points, 3. Conclusion"

def generate_article(outline):
    return f"Article based on {outline}: [Full content here]"

topic = "How to use LLMs effectively"
outline = generate_outline(topic)
article = generate_article(outline)
print(article)

2. Routing

根据输入内容,分类处理任务。比如客服系统中,将退款请求和技术支持请求分配到不同流程。

适用场景

  • • 不同类型的输入需要专门优化的模型或提示词;
  • • 处理多语言支持的应用。

代码实现

def route_query(query):
    if"refund"in query:
        return"Refund Workflow"
    elif"technical"in query:
        return"Tech Support Workflow"
    else:
        return"General Workflow"

query = "How can I get a refund?"
print(route_query(query))  # 输出: Refund Workflow

3. Parallelization

将任务分解成多个子任务并行处理,提高效率。例如,代码评审时,可以同时检查多个模块。

4. Evaluator-Optimizer

一种自评估-优化循环,让模型根据反馈不断改进结果。这种模式特别适合翻译或内容生成任务。


Agent 的核心:自主决策

真正的 Agent 系统具备一定的自主性,能动态规划任务、调用工具并根据环境调整策略。例如,一个代码 Agent,可以分析任务需求并自动修改多个文件。

架构示例

用户输入Agent 规划调用工具结果反馈

实现关键点

  • • 工具调用接口:设计清晰的工具文档和 API,方便模型理解和调用。
  • • 错误处理和恢复:通过环境反馈判断任务是否完成,必要时请求用户确认。

工具选型对比

如果你想用框架简化开发,这里列出了一些常见工具及优缺点:

工具
优点
缺点
LangGraph
易上手,支持复杂链式调用
抽象层多,调试困难
Rivet
可视化界面,适合快速构建
灵活性不高,扩展性有限
Vellum
支持复杂工作流和测试
成本较高,学习曲线较陡

我的建议是:先用 LLM API 实现简单原型,再根据需求决定是否引入框架。


总结

构建高效的 LLM Agent,不在于多么复杂的设计,而是用对模式

  1. 1. 从简单的增强型 LLM 开始,逐步加入工作流模式;
  2. 2. 仅在必要时引入 Agent,保证成本和效率平衡;
  3. 3. 重视工具接口的设计和文档,让模型调用更自然顺畅。

希望这些经验能帮你少踩坑,更快地开发出好用的 LLM 系统!



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询