AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


使用AutoGen构建复杂的多智能体(Agent)对话系统
发布日期:2024-03-24 14:38:32 浏览次数: 3311 来源:象土课堂


随着大型语言模型技术的快速发展,在很多工程化落地场景中,单一的AI代理已经无法满足客户快速增长的业务需求。恰逢其时 AutoGen 横空出世,它开启了一个新的可能性,让多个AI代理能够协同工作,共同完成复杂的任务。今天我们就要来深入探讨一下它的工作原理和应用方式。

一、Autogen的概念和应用   

Autogen 是一个由 Microsoft 推出的框架,它允许用户创建和管理多个自主代理,以协同完成复杂的任务。这个框架的灵活性极高,你可以根据自己的需求定义不同的代理和它们的角色,然后让它们一起工作。这种多代理协作的方式不仅提高了任务完成的效率,还提高了结果的质量,特别是在编程、规划和创意写作等领域。

AutoGen 能够以最小的工作量构建基于多代理对话的下一代 LLM 应用程序。它简化了复杂 LLM 工作流程的协调、自动化和优化。它能最大限度地提高 LLM 模型的性能并克服其弱点。它支持复杂工作流程的各种对话模式。通过可定制和可对话的代理,开发人员可以使用 AutoGen 构建与对话自主性、代理数量和代理对话拓扑有关的各种对话模式。它提供了一系列具有不同复杂性的工作系统。这些系统涵盖了不同领域和不同复杂度的广泛应用。这展示了 AutoGen 如何轻松支持各种对话模式。AutoGen 提供增强型 LLM 推断。它提供 API 统一和缓存等实用工具,以及错误处理、多配置推理、上下文编程等高级使用模式。    

AutoGen 提供可定制和可对话的代理,将 LLM、工具和人类整合在一起。通过自动化多个有能力的代理之间的聊天,人们可以轻松地让它们共同自主执行任务或在人类反馈下执行任务,包括需要通过代码使用工具的任务。
多代理对话:AutoGen代理可以相互交流,共同完成任务。这样就能实现比单个 LLM 更复杂、更精密的应用。
定制:可以对 AutoGen 代理进行定制,以满足应用程序的特定需求。这包括选择要使用的 LLM、允许的人工输入类型以及要使用的工具。

人工参与:AutoGen允许人类无缝参与。这意味着人类可以根据需要向代理提供输入和反馈。

二、Autogen内置代理  

图1-AutoGen内置代理    

AutoGen为代理设计了一个通用ConversableAgent类,它们能够通过交换消息来相互对话以共同完成任务。代理可以与其他代理进行通信并执行操作。不同的代理在收到消息后执行的操作可能有所不同。两个代表性的子类是AssistantAgent和UserProxyAgent。

AssistantAgent被设计为充当人工智能助手,默认使用LLMs,但不需要人工输入或代码执行。它可以编写 Python 代码(在 Python 编码块中)供用户在收到消息(通常是需要解决的任务的描述)时执行。在底层,Python 代码是由 LLM(例如 GPT-4)编写的。它还可以接收执行结果并建议更正或错误修复。可以通过传递新的系统消息来更改其行为。LLM推理配置可以通过 进行配置llm_config。

从概念上讲,UserProxyAgent是人类的代理,默认情况下在每次交互时征求人类输入作为代理的回复,并且还具有执行代码和调用函数的能力。当它UserProxyAgent检测到接收到的消息中的可执行代码块并且没有提供人类用户输入时,会自动触发代码执行。可以通过将参数设置为 False 来禁用代码执行code_execution_config。默认情况下禁用基于 LLM 的响应。可以通过设置与推理llm_config配置对应的字典来启用它。当设置为字典时,可以在不执行代码时使用LLM生成回复。llm_configUserProxyAgent自动回复功能ConversableAgent允许更自主的多代理通信,同时保留人工干预的可能性。人们还可以通过使用该方法注册回复函数来轻松扩展它register_reply()。    

         
图3-AutoGen应用场景示例

三、Autogen应用场景

1.代码生成、执行和调试
通过代码生成、执行和调试自动解决任务;
自动代码生成、执行、调试和人工反馈;
使用检索增强代理自动生成代码和问答。
2.多智能体协作(>3 智能体)    
使用 GPT-4 + 多个人类用户自动解决任务;
通过群聊自动解决任务(有 3 个群组成员代理和 1 个经理代理);
通过群聊自动数据可视化(包含 3 个群组成员代理和 1 个经理代理);
通过群聊自动解决复杂任务(有 6 个组成员代理和 1 个经理代理);
使用编码和规划代理自动解决任务。
3.应用
GPT-4 代理自动玩国际象棋游戏和闲聊;
从新数据中自动持续学习;
OptiGuide:用于供应链优化的大型语言模型。
4.工具使用
Web 搜索:解决需要 Web 信息的任务;
使用提供的工具作为函数;
使用 Langchain 提供的工具作为函数来解决任务;
RAG:带有检索增强生成的群组聊天(具有 5 个群组成员代理和 1 个经理代理);
OpenAI 实用函数深入指南。
5.代理教学
通过自动聊天教授代理新技能并重复使用;
向代理传授编码以外的新事实、用户偏好和技能。
6.其他

代码解释器、问答系统、创意写作、翻译工具、研究工具。

四、Autogen局限性    
1.有限的范围
AutoGen是为特定任务设计的,所以它可能不像其他人工智能模型那样通用。
2.复杂性
根据任务的不同,AutoGen可能需要大量的设置和配置。
3.依赖于用户输入
AutoGen依赖于用户输入来执行任务,因此如果用户输入不清楚或不正确,它可能不那么有效。
4.稳定性一般

使用AutoGen的主要缺点之一是它仍在开发中。这意味着它可能不像其他LLM开发框架那样稳定或功能丰富。

5.有一定使用门槛

AutoGen可能配置和使用起来较为复杂。对于不熟悉LLMs和基于代理的系统的用户来说,这一点尤为棘手。

五、Autogen和LangChain对比

AutoGen和LangChain都是用于开发基于LLM(Large Language Model)的应用程序的框架。然而,它们之间存在一些关键差异。

AutoGen是一个多代理框架,而LangChain是一个单代理框架。这意味着AutoGen允许开发人员创建由多个代理组成、可以相互交互的应用程序。这对于创建需要多个代理之间进行复杂协作的应用程序非常有用。    

AutoGen更侧重于代码生成,而LangChain更侧重于通用自然语言处理(NLP)任务。这意味着AutoGen更适用于需要生成代码的应用程序,如代码完成和代码重构工具。LangChain更适用于需要执行通用NLP任务的应用程序,如问答和文本摘要。

AutoGen是开源的,而LangChain是专有的。这意味着AutoGen可以免费使用和修改,而LangChain则在专有许可下运行。

选择哪个框架将取决于您的具体需求。如果您需要开发一个需要多个代理之间进行复杂协作或需要生成代码的应用程序,那么AutoGen是一个不错的选择。如果您需要开发一个需要执行通用NLP任务的应用程序,那么LangChain是一个不错的选择。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询