微信扫码
与创始人交个朋友
我要投稿
利用DeepSeek模型,降低飞书智能伙伴的成本,提升聊天场景体验。核心内容:1. DeepSeek模型在飞书智能伙伴中的应用优势2. 创建DeepSeek API Key的详细步骤3. 在飞书智能伙伴搭建平台配置模型的关键信息
Deepseek 出了名的量大管饱,而对于一般常见的 Chat 场景,直接使用 DeepSeek 是个不错的选择,作为普通用户,完全可以直接使用 DeepSeek来接入飞书智能伙伴,降低自己的模型消费成本。
我就试着将 DeepSeek 接入到了我的飞书智能伙伴搭建平台上。
首先,访问 DeepSeek 开放平台[1],进入 API Keys 页面[2]。
点击「创建 API Key」,为你的飞书智能伙伴平台创建一个全新的 Key,以便于后续按 Key 来管理。
复制生成的 Key,进入到飞书智能伙伴搭建平台的企业管理后台。
在管理后台进入模型管理页面,可以看到飞书智能伙伴搭建平台提供的默认模型,这部分模型只能管理是否可用,但无法配置 Key(你如果用完了 Quota,可以直接购买 Quota)。如果你需要配置自己的 Key,则需要按照接入模型的指南,对应进行接入。
点击右上角的「接入模型」,并在弹出的窗口中,选择模型供应商为「自定义模型」,
然后依次如下填写:
deepseek-chat
640000
https://api.deepseek.com/chat/completions
[3]POST
Authorization
,其值为 Bearer 你的TOKEN
填写完成后,大概是这样的:
提交完成后,就可以看到你刚刚配置的模型了。接下来就可以在应用当中使用它了~
使用 DeepSeek 模型示意图
如果你希望整个平台的所有部分都使用 DeepSeek 的模型,则需要点击「模型管理」页面的「模型设置」,将默认模型和替换模型设置为 DeepSeek 模型,这样后续所有逻辑就都会默认使用 DeepkSeek 的模型。
[1]
DeepSeek 开放平台: https://platform.deepseek.com/?ref=feishu.io[2]
API Keys 页面: https://platform.deepseek.com/api_keys?ref=feishu.io[3]
`https://api.deepseek.com/chat/completions`: https://api.deepseek.com/chat/completions?ref=feishu.io[4]
DeepSeek 不限速: https://api-docs.deepseek.com/zh-cn/quick_start/rate_limit?ref=feishu.io[5]
DeepSeek 不限速: https://api-docs.deepseek.com/zh-cn/quick_start/rate_limit?ref=feishu.io
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-06
DeepSeek大模型本地部署全攻略:从工具选择到可视化操作
2025-02-06
Llama3.3
2025-02-06
3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1
2025-02-06
深度使用Cursor碰到的几个问题
2025-02-06
DeepSeek被质疑抄袭?别怕!在本地部署DeepSeek R1,并添加私有知识库,支持联网搜索!
2025-02-06
Cursor帮我节约了90%的时间
2025-02-05
3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1
2025-02-05
别被Deepseek低成本冲昏头!本地化部署后续的“甜蜜陷阱”,你真能扛住吗?
2024-09-18
2024-07-11
2024-07-11
2024-07-26
2024-07-09
2025-02-04
2024-12-29
2024-06-11
2025-02-04
2024-09-06