微信扫码
添加专属顾问
我要投稿
还是在设置的弹窗中选择「模型供应商」,这次我们选择 Ollama,以 qwen2:7b
模型为例:
模型名称我们填入 qwen2:7b
基础 URL 填入 http://host.docker.internal:11434
其他选项可以根据自己的需求进行配置,或者也可以保持默认
然后保存即可
回到创建的应用中,在编排页面的右上角切换大模型为 qwen2:7b
:
可以看到的,由于是本地大模型,所以响应速度非常快!
因为咱们本次使用 Ollama 来作为 Dify 的 AI 模型,所以在创建知识库时会有一些问题:
这是 因为 Dify 默认的系统 Embedding 模型是 OpenAI 的 text-embedding-3-large
,但是当我们使用本地大模型时,是无法连接到这个模型的,所以我们 还需要再拉取一个 Embeddinng 模型下来,这里以 nomic-embed-text
为例 :
ollama pull nomic-embed-text
然后在 Ollama 模型设置中选择 Text Embedding
:
保存之后,我们可以 修改 Dify 的默认系统模型,点击右上角的「系统默认设置」按钮进行设置 :
再创建一个新的知识库进行测试:
也可以成功嵌入:
接下来我们将刚刚创建的知识库添加到应用中去,并给应用添加提示词。如果不知道怎么编写提示词,还可以点击右上角的自动编排让 AI 帮助我们完成:
点击右下角的「应用」按钮,就会自动为我们添加这些提示词和开场白到应用中了:
我们可以在知识库中添加大量的 K8s 相关的资料,打造一款 K8s 大师应用。是不是很棒?
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-16
Dify 技术内幕:插件系统设计与实现详解
2025-04-15
从开发角度对比 dify 和 n8n:哪个更适合你?
2025-04-14
把任意Dify工作流变成MCP Server
2025-04-14
Dify 升级攻略:从0.15.3迈向1.1.0,元数据管理全攻略!
2025-04-14
Dify x Open Audio:用 Fish Audio 插件轻松实现 TTS 和语音克隆
2025-04-14
Dify Endpoint 新玩法:AI 应用一键发布为 MCP Server
2025-04-14
如何用Dify循环节点优化AI工作流!快速上手教程
2025-04-14
dify与fastgpt的并行性能对比,以及智能体开发平台巨头的横向对比
2024-12-24
2024-04-25
2024-07-16
2024-07-20
2024-04-24
2024-06-21
2024-05-08
2024-05-09
2024-08-06
2024-11-15
2025-04-15
2025-03-20
2024-12-19
2024-09-13
2024-09-13
2024-08-28
2024-04-24