AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


DIFY搭建知识库与工作流备忘

发布日期:2025-03-01 05:15:08 浏览次数: 1737 来源:萝藦今天没学习
推荐语

搭建本地知识库和工作流的详细教程,适合技术爱好者和专业人士。

核心内容:
1. 配置OLLAMA环境变量的步骤和技巧
2. 下载OLLAMA模型的方法和注意事项
3. 安装DOCKER的具体流程和常见问题解决方案

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

大体流程主要参考B站“唐吉可德拉曼查的英豪”纯本地化搭建 视频13:22秒开始为全流程教程

安装DOCKER主要参考B站的“技术爬爬虾”和“SKki998”的视频

DIFY配置主要参考B站“AI大模型应用案例”的视频

工作流搭建主要参考B站“大模型教程CC”和“AI大模型知识分享”


1、配置OLLAMA的环境变量

系统→系统信息→高级系统设置→环境变量→新建→变量名:OLLAMA_HOST 变量值:0.0.0.0:11434

新建 变量名:OLLAMA_MODELS 变量值:D:\OllamaModels→确定 重启电脑 

小TIPS:安装无法更改默认位置于C盘的软件,可以在想安装的文件夹下直接cmd,输入OllamaSetup.exe /DIR=D:\OllamaModels  


2、下载OLLAMA模型

在MODEL中下载DEEPSEEP的CHAT模型与BEG-M3的EMBEDDING模型,选择合适的配置复制指令

WIN+R打开CMD命令,粘贴指令直接下载


3、安装DOCKER 

(1)任务栏搜索功能→点击启用或关闭WINDOWS功能→勾选适用于Linux的Windows子系统、虚拟机平台 重启

(2)安装wsl 搜索cmd,右键以管理员身份打开→输入执行 wsl --set-default-version 2

(3)再输入wsl --update --web-download 

(2)先wsl --install 

(3)再wsl --set-default-version 2

以上3步目的为安装wsl 


(4)下载docker并安装

(安装时理论上安装可以使用 start /w "" "Docker Desktop Installer.exe" install --installation-dir=D:\Docker 但使用本代码多次显示程序占用失败)

(5)配置docker Resources→Advance→更改镜像下载地址

(6)proxies设置代理 开梯子

在Docker Engine的false后面加英文逗号“,”,粘贴以下

 "registry-mirrors": [

  "https://registry.docker-cn.com",

  "http://hub-mirror.c.163.com",

  "https://dockerhub.azk8s.cn",

  "https://mirror.ccs.tencentyun.com",

  "https://registry.cn-hangzhou.aliyuncs.com",

  "https://docker.mirrors.ustc.edu.cn",

  "https://docker.m.daocloud.io",  

  "https://noohub.ru", 

  "https://huecker.io",

  "https://dockerhub.timeweb.cloud" 

 ]


若源失效可能可能需要从github.com/DaoCloud/public-image-mirror中找到源站,复制粘贴到上述位置


4、下载DIFY

在GITHUB中找到DIFY或直接搜索DIFY通过GITHUB进入

下载压缩包后解压

进入DOCKER文件夹

找到.env文件并删除其余后缀名称,仅保留 .env

以文本文档形式打开,在最后先空一行,再输入


#启用自定义模型

CUSTOM_MODEL_ENABLED=true

#指定 Ollama 的 API 地址(根据部署环境调整 IP)

OLLAMA_API_BASE_URL=host.docker.internal:11434


在DOCKER文件下直接运行CMD

粘贴网站上下载指令 docker compose up -d 注意:此过程需要打开DOCKER


下载完成后,默认端口为localhost:80

若由于其他模型存在可能需要更改端口,从.env文件中找到

EXPOSE_NGINX_PORT=80

EXPOSE_NGINX_SSL_PORT=443


将PORT=80改为其他数字即可,例如本机已改为4000,则端口更变为localhost:4000


5、打开dify并配置

打开浏览器,地址输入localhost:4000(默认为80)

注册登录后

右上角设置→模型供应商,找到ollama,添加模型,添加名称和URL地址

注意:名称寻找→WIN+R cmd→输入ollama list→出现刚刚下载好的两个 分别配置,复制粘贴,注意不要多空格

或直接从ollama网站复制刚刚下载的模型名称

URL:输入http://host.docker.internal:11434 即刚刚更改的环境文件.env的地址

chat模型和embedding模型分别配置后,显示模型检查是否配置成功


注:若使用线上平台则可通过API KEY添加,先去相关平台网站申请API,例如从DEEPSEEK申请API,复制,此时的URL从相应网站寻找接口文件,复制即可。若报错402很可能因为你没充钱,想白嫖是不可能的。


以上即配置完毕,可添加嵌入知识库分析后使用,从工作室添加chat模型,从上下文添加嵌入的知识库,或搭建工作流。


重点注意:所有代码操作、地址操作一定要注意有没有空格影响!!!!!

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询