微信扫码
与创始人交个朋友
我要投稿
你是不是也曾对Coze的大模型能力不满?觉得它不够强大,不够智能?
别急着否定它。也许,问题不在Coze,而在你。
COZE是一个AI工作流平台,可以我们是可以给我们的工作流创建更多的“外挂”插件,就像我们创业项目,需要吸引更强小伙伴加入团队。
用插件节点。
插件让你接入符合自己需求的大模型。让Agent工作流不再受限。
所以我们需要给创建的「COZE工作流」提供外挂插件。比如你用国内某模型不行我们就可以插入入一个更适合这个工作流能力的模型。
它让你可以接入任何你想要的大模型。Claude、GPT-4,随你挑。
这些,讲真,还得努力。
Coze IDE:小白的福音
操作步骤 那么接下来,5分钟,让你复刻出自己的第一个外接【大模型插件】
首先进入【工作空间】再选择插件适用的空间,这里分为【个人空间】和【团队空间】,这二者的不同是在于【个人空间】创建的插件只能自己使用,而【团队空间】创建的插件可以供【团队空间】里其他小伙伴使用。
这里我们以【个人空间】为例,在界面右上角选择新增资源,这里直接选择【插件】
在【新建插件】界面,我们填入配置项,这里我们选择【云侧插件】,编程语言选择Python
然后我们选择在IDE中创建工具
在创建工具这里填好信息
然后出现这个界面就代表着插件创建这一步成功了
这里的外部大模型我们以 claude 为例:小白科普:什么是 API?
API就像是插座:你不需要知道电是怎么来的,你只需要把电器插头插入插座,就能使用电力了。
API也是这样,它让你能轻松地使用其他程序的功能,而不用关心那些功能是怎么实现的。
API 就是coze 与claude 对接的一个接口,通过简单的代码调用,就能使用 claude 的能力。
对于某些的用户来说,想要使用claude 官方的 API 的话是有较大的困难和风险的,因此,我们直接选择第三方中转 claude API 的服务来实现我们的功能。
这里使用一家国内提供claude API中转服务的平台:https://api.mjdjourney.cn 在注册完成之后,进入到后台界面之后,点击令牌
选择新建一个令牌,可以根据自己的需要进行配置,新建完成之后,点击请求示例:
选择Python SDK,然后选择模型,这里我们选择claude的示例模型(这里更多的模型选择可以参考【账户】下的模型列表,点击即可复制)这里将代码复制下来,等下会使用到
打开Kimi(https://kimi.moonshot.cn/),把Coze插件界面的代码给它。
告诉Kimi你要什么,让它帮你写代码。遇到错误?把错误给Kimi,让它修改。,以下是改动全程:
请你按照下面我给你的代码格式
from typings.extra_model.extra_model import Input, Output
"""
Each file needs to export a function named handler. This function is the entrance to the Tool.
Parameters:
args: parameters of the entry function.
args.input - input parameters, you can get test input value by args.input.xxx.
args.logger - logger instance used to print logs, injected by runtime.
Remember to fill in input/output in Metadata, it helps LLM to recognize and use tool.
Return:
The return data of the function, which should match the declared output parameters.
"""
def handler(args: Args[Input])->Output:
return {"message": "Hello, world!"}```
为我加上这个功能:```from openai import OpenAI
client = OpenAI(api_key="sk-DTUukbPBkcdpbgsj2898BaC6CeA34fF082F764Be1502562d", base_url="https://api.mjdjourney.cn/v1")
completion = client.chat.completions.create(
model="claude-3-opus-20240229",
stream=False,
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
]
)
print(completion.choices[0].message)```
要求:你需要按照上述的代码示例将这个功能给我实现,并且以json的格式返回,这里面需要有容错机制,返回的变量名为resp和msg,resp是模型返回的结果,msg表示这个请求是否成功,成功为success,失败为error,并且注释使用中文,这里的system和user变量都是外部传进来的,通过注释里的args传进来
```
最终生成的代码:(我做了小改动,大家可以直接复制我的代码去执行,但是前提是:在创建插件的时候需要名字和我一样,不然会出现导入的包名不一致,报错,不过也没关系,把报错信息和代码一起丢给kimi就行了)请注意:下方的代码中的api_key是需要替换成自己的api_key的,就在上述的平台去购买申请
from runtime import Args
from typings.extra_model.extra_model import Input, Output
from openai import OpenAI
"""
Each file needs to export a function named `handler`. This function is the entrance to the Tool.
Parameters:
args: parameters of the entry function.
args.input - input parameters, you can get test input value by args.input.xxx.
args.logger - logger instance used to print logs, injected by runtime.
Remember to fill in input/output in Metadata, it helps LLM to recognize and use tool.
Return:
The return data of the function, which should match the declared output parameters.
"""
def handler(args: Args[Input])->Output:
# 初始化 OpenAI 客户端
# 这里的api_key请替换成自己的key,就在上述文档中的平台去购买申请,这里只是公益的Key
# 额度不多,请大家仅做测试使用
# 整个代码之后这里的api_key需要替换成自己的,其他的都可以不用动
client = OpenAI(api_key="sk-DTUukbPBkcdpbgsj2898BaC6CeA34fF082F764Be1502562d", base_url="https://api.mjdjourney.cn/v1")
try:
# 从 args 获取 system 和 user 的内容
system_content = args.input.system
user_content = args.input.user
# 调用 OpenAI API 获取模型回复
completion = client.chat.completions.create(
model="claude-3-opus-20240229",
stream=False,
messages=[
{"role": "system", "content": system_content},
{"role": "user", "content": user_content}
]
)
# 获取模型返回的结果
resp = completion.choices[0].message.content
msg = "success"
except Exception as e:
# 容错机制,如果发生异常,记录错误信息
resp = None
msg = "error"
args.logger.error(f"Error occurred: {str(e)}")
result = {
"resp": resp,
"msg": msg
}
# 以 JSON 格式返回结果
return result
以下是coze运行结果:
在上图中,大家可以直接复制我的代码去运行,但是请注意图中标注的注意点,测试用例⬇️
{
"user": "你好",
"system": "你是一个好助手"
}
恭喜你!!!到这一步你的插件马上就创建成功啦!!!但是还需要一些小小的配置⬇️
设置元数据,保存,测试,发布。
这里点击【元数据】按钮,然后设置和下图一样即可,设置完成后点击保存
再次测试成功之后就可以点击发布!!!
接下来,我们在工作流中简单的调用一下外接的claude模型
运行结果如下:
恭喜你!!!到这一步,外接大模型就全部完成啦!
不要被技术吓倒。AI时代,学会使用工具比掌握技术更重要。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-11-20
FastGraphRAG 如何做到高达 20%优化检索增强生成(RAG)性能优化
2024-11-20
为裸奔的大模型穿上"防护服":企业AI安全护栏设计指南
2024-07-18
2024-05-05
2024-07-09
2024-07-09
2024-05-19
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21