微信扫码
与创始人交个朋友
我要投稿
本文我们来学习下如何在AgentScope中使用自定义的工具。
在AgentScope中,自定义工具和内置工具的使用似乎没那么明显,但确实也提供了这个框架。它其实是通过一个叫 ServiceToolkit 来封装的工具。至于工具的使用,可以通过 ReActAgent 来实现。但这样使用在我看来有点问题。
先来看下具体怎么使用。
创建自定义工具,本质上是创建一个自定义函数。与LangChain和MetaGPT会通过类似 @tools 装饰器来将函数封装成框架内可用的工具不同,在 AgentScope 中,你只将函数的返回值封装成 ServiceResponse 对象即可。ServiceResponse 接收一个运行状态和一个content内容。
当然,记得要写该函数的docstring。还没细看源码,但猜测 AgentScope 内部应该是通过 docstring 来当作该工具的Prompt,并明确工具的参数和返回值。
def sum_num(a: int, b: int) -> int:
"""计算两个数的和
Args:
a (int): 参数1
b (int): 参数2
Returns:
int: 结果
"""
output = a + b
status = ServiceExecStatus.SUCCESS
return ServiceResponse(status, output)
(1)首先,你需要将该工具添加到 ServiceToolkit 中。
service_toolkit = ServiceToolkit()
service_toolkit.add(sum_num)
(2)实例化一个 ReActAgent,通过 service_toolkit 参数来将自定义工具添加进去。
self.agent = ReActAgent(
name="assistant",
model_config_name="openai_cfg",
verbose=True,
service_toolkit=service_toolkit,
max_iters=1,
)
(3)使用该 agent 即可
msg = Msg("user", query, role="user")
return self.agent(msg)
完整代码如下:
from agentscope.agents.react_agent importReActAgent
import agentscope
from agentscope.message importMsg
import os
from agentscope.service import(
ServiceToolkit,
ServiceResponse,
ServiceExecStatus,
)
openai_api_key = os.getenv('OPENAI_API_KEY')
# 此Agent的模型配置,按需修改
OPENAI_CFG_DICT ={
"config_name":"openai_cfg",# 此配置的名称,必须保证唯一
"model_type":"openai",# 模型类型
"model_name":"gpt-3.5-turbo",# 模型名称
"api_key": openai_api_key,# OpenAI API key. 如果没有设置,将使用环境变量中的 OPENAI_API_KEY
}
defsum_num(a: int, b: int)->int:
"""计算两个数的和
Args:
a (int): 参数1
b (int): 参数2
Returns:
int: 结果
"""
output = a + b
status =ServiceExecStatus.SUCCESS
returnServiceResponse(status, output)
classToolDemo:
def__init__(self):
# Prepare the tools for the agent
service_toolkit =ServiceToolkit()
service_toolkit.add(sum_num)
agentscope.init(model_configs=[OPENAI_CFG_DICT])
self.agent =ReActAgent(
name="assistant",
model_config_name="openai_cfg",
verbose=True,
service_toolkit=service_toolkit,
max_iters=1,
)
definvoke(self, query):
msg =Msg("user", query, role="user")
return self.agent(msg)
if __name__ =='__main__':
tool_demo =ToolDemo()
response = tool_demo.invoke("你是谁?")
print(response)
运行结果:
可以看到它成功识别并使用了 sum_num 这个工具。
文章开始,我提到了通过 ReActAgent 来实现使用工具在我看来有点问题。
首先,ReActAgent 是实现的ReAct思想,即思考+行动。大模型先思考下一步该干什么,然后执行。这对于只想判断是否应该使用工具的场景来说,有点浪费。细心的同学可能发现了,在ReActAgent初始化的过程中,有个 max_iters 参数。这是最大的迭代步数,也就是思考多少次。判断一个工具的使用,其实只需要一次思考即可。(个人意见,欢迎讨论)。
其次,ReActAgent 最终的返回,是最终的结论,中间过程外部不可见。如果想要获取中间过程,需要自己实现,不能用 ReActAgent 了。目前还没看到 AgentScope 中有类似 LangChain 那样直接 bind_tools 或 bind_functions 这样的接口封装,让用户在执行之后可以获取是否需要调用工具的判断。
当识别到工具时,返回的结果是类似下图这样:
没有识别到工具时,返回的结果是类似下图这样:
难道可以通过这个返回值中有无 function 参数来判断是否使用过工具?感觉不太靠谱啊... 可能还是得自己写一个吧。欢迎熟悉的大佬指教!感谢!
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-09
经济学人:OpenAI不会一直是微软囚禁的鸟
2024-11-08
AI 2.0时代,谁是未来的“掘金者”和“卖铲人”?
2024-11-08
水利大模型的建设思路、构建框架与应用场景初探
2024-11-08
陈曦:招商银行“低代码+大模型”创新实践
2024-11-08
大模型的科普及信创领域研发和场景应用
2024-11-08
威海:创新大模型应用 智“绘”政府数字化转型新模式
2024-11-08
百度智能云千帆 AppBuilder 大模型应用开发解读
2024-11-07
零一万物以“Infra+模型+应用”三体布局 ToB:以数字人、AI Infra 解决方案智赋企业数智化增长|FM 01.AI
2024-05-28
2024-04-26
2024-04-11
2024-08-21
2024-07-09
2024-07-18
2024-10-25
2024-08-13
2024-06-17
2024-07-01