AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


DeepSeek API 又崩了?Dify 三重保险让你的应用永不掉线

发布日期:2025-02-07 18:16:30 浏览次数: 2717 来源:Dify
推荐语

掌握DeepSeek API崩溃后,如何确保应用稳定性的关键策略。

核心内容:
1. DeepSeek API崩溃对开发者的影响及Dify的解决方案
2. Dify平台如何实现DeepSeek-R1模型的灵活集成
3. 详细步骤:如何在Dify中配置并使用DeepSeek官方API

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
近日,DeepSeek 以其卓越的开源模型推理性能,在全球范围内迅速获得关注。但由于官方模型 API 供不应求,许多开发者深感“无 API 可用”的窘迫。事实上,这也印证了 强化学习(RL)和思维链(CoT)等先进技术结合开源理念 所带来的强劲势能。然而,当服务出现不稳定时,要如何在最短时间内继续享受 DeepSeek-R1 的强大推理能力?

Dify 再次走向前沿,为此提供了解决方案。作为始终秉持“模型中立”原则的开源 LLM 应用开发平台,并且支持全球 1000+ 种开源/闭源模型,能够“一秒切换”至不同模型能力,使开发者可快速在多种大模型之间灵活切换。Dify 早在 DeepSeek-R1 发布前,就已陆续接入了包括 V3 在内的多款 DeepSeek 模型。

通过社区贡献者与团队工程师的合力,开发者现可在 Dify 中灵活调用官方 API,或通过多家 MaaS 平台乃至本地部署的方式使用 R1,实现“一站式”集成和编排 LLM 应用,让 DeepSeek API 的不稳定不再成为阻碍。

DeepSeek-R1 在 Dify 的多重集成方案

一、DeepSeek 官方 API 接入

借助开源社区贡献者和团队工程师的共同努力,如今开发者不仅可以直接使用 DeepSeek 官方提供的 API,还能将 DeepSeek-R1 集成到 Dify 的应用编排中。
  • 获取 API Key:从 DeepSeek 官网获取密钥:https://platform.deepseek.com/sign_in
  • 在 Dify 中配置:进入 Dify 的「模型供应商」设置页面,找到 DeepSeek,将获取到的 API Key 粘贴进去并保存。

Dify 提供了单个模型层面的负载均衡功能,允许在同一个模型上配置多个 DeepSeek-R1 API Key;通过轮询或自动切换的方式分配请求,能够在高并发或触发速率限制时有效提升吞吐量并确保服务的可用性,从而让大规模生产环境中的 DeepSeek 调用更加稳定。

阅读帮助文档获取更多详情:
https://docs.dify.ai/zh-hans/guides/model-configuration/load-balancing

  • 在 Dify 的应用编排中,选择 “deepseek-reasoner” 作为 LLM 推理节点,即可调用 DeepSeek 官方 R1 模型服务。

Tips:由于 DeepSeek-R1 具有反思和推理的能力,它并非传统“指令性”模型,ChatGPT 常用的提示词模版或许并不完全适用。这也给了应用开发者更多提示词层面上的创新空间。

二、多家 MaaS 供应商集成:为 R1 应用构筑高可用护城河

近期 DeepSeek 官方 API 出现不稳定的状况,Dify 提供了一套 “DeepSeek 官方API +多 MaaS 供应商”的组合思路,帮助开发者和企业在生产环境下依然能稳定、高可用地调用 R1。目前,Dify 的模型生态中已有多家 MaaS 服务商提供了 R1 部署,包括 Microsoft Azure AI Foundry、AWS BedRock、NVIDIA API Catalog、Groq、Together.ai、Fireworks AI、OpenRouter、Siliconflow 等。多元化的供应商选择能为 Dify 用户带来以下优势:
  • 节省成本:MaaS 服务商利用自有云服务器托管 DeepSeek,大幅降低开发者自行部署硬件的成本,同时在并发和稳定性方面也更有保障。

  • 负载均衡与自动切换:通过在 Dify Workflow 中结合“异常处理”和条件判断节点,可将官方 API 与不同 MaaS 版本的 R1 模型配置为主备分支。一旦官方 API 调用失败或因超时返回空值,系统即可自动切换至其他 MaaS 的 R1 模型,确保应用在任何情况下都能平稳运行。

以下以 Azure AI Foundry 提供的 R1 模型为例:

中文用户可优先考虑国内优秀 MaaS 服务商如"硅基流动",注册即可获得 DeepSeek-R1 2000万 Tokens 的免费试用额度!? https://siliconflow.cn/

1. 访问 https://ai.azure.com/ 并登录,完成相关设置。

设置教程详见:https://azure.microsoft.com/en-us/blog/deepseek-r1-is-now-available-on-azure-ai-foundry-and-github/

2. 在 Model catalog 中搜索“DeepSeek-R1”,进入模型详情后选择 “Deploy”

3. 部署完成后,在 My assets 中可查看到 DeepSeek-R1 的 Model Name、Azure AI Studio Endpoint、API Key 等信息,只需在 Dify「模型供应商」的 Azure AI Studio Endpoint 配置面板中填写这些参数,即可开始调用模型。

4. 在下图所示的 Workflow 中,开发者可将 Azure 版本的 R1(即 LLM 2 节点)设置为 DeepSeek 官方服务(LLM 1)的备用分支:
•当 LLM 1 调用失败(状态为 “failure”)时,系统会自动切换到 LLM 2;

• 如遇超时返回空值,则可通过 IF/ELSE 节点将请求路由至 LLM 2。

此外,开发者还可以添加更多支持 R1 的 MaaS 或本地部署选项(下图中的 LLM 3 节点即调用了通过 Ollama 部署的 R1 模型),从而最大限度地保障应用的可用性和生产力。

5. 当 Workflow 达到稳定可用后,开发者可在节点中加入搜索等插件能力,进一步扩展 R1 的功能边界。Dify 工具列表中提供了 联网搜索、语音转译、文生图、爬虫 等多种第三方工具。例如,结合 Perplexity 搜索工具,就能迅速搭建出一个基于 R1 的 AI 搜索类 MVP 应用。

下图所示的示例使用了 Perplexity + DeepSeek-R1 官方 API + 备选 R1 模型(Azure DeepSeek-R1 / Ollama deepseek-r1:7b) 来构建 AI 研究助手:当 LLM 1 节点(DeepSeek 官方 API)因请求超时返回空值时,系统通过条件判断节点自动切换到了 LLM 2(Azure DeepSeek-R1),并成功生成调研报告,保证了应用的稳定可用。

随着 Dify v1.0 即将上线的插件功能,工具也会作为插件的一种类型,开发者将能以更低门槛为应用场景添加各种新工具。

悄悄剧透:据 Dify 内部工程师测试,OpenAI o1 模型在获得足够上下文后,可以相对自主地完成一个插件的开发。这表明随着 Dify 插件功能的推出,工具型应用的开发难度将大幅降低。敬请期待!

三、本地部署方案

对于注重隐私和安全性需求的企业或开发者,也可以通过 Ollama 等本地推理服务,将“蒸馏”后的 DeepSeek-R1 模型部署到内网,确保数据不出企业安全域。
  • 简单部署:利用一些本地推理框架(如 Ollama 等),可以快速加载不同大小和参数量的 R1 模型。

部署指南:https://docs.dify.ai/zh-hans/learn-more/use-cases/private-ai-ollama-deepseek-dify

  • 进阶微调:在 Hugging Face、Replicate 等平台上,还可以找到 DeepSeek-R1 的多种微调版本。若需深度定制模型,可将它们部署到本地进行专业场景应用。

写在最后

DeepSeek-R1 的出现,为开源大型模型领域带来了新的可能性;Dify 则通过对官方 API、第三方 MaaS、本地部署等多渠道的集成与编排,帮助开发者在不牺牲隐私和灵活性的前提下,尽享 R1 的强大推理性能

开源+开源的组合,不仅让新一代 AI 应用开发更高效、更自由,也为企业在生产环境中稳定使用 DeepSeek-R1 保驾护航。未来,Dify 将继续完善其插件生态、工作流编排和多模型集成能力,与广大开发者携手,探索更多可能。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

和创始人交个朋友

回到顶部

 

加载中...

扫码咨询