微信扫码
与创始人交个朋友
我要投稿
1)添加Ollama模型
2)配置qwen2.5:7b 模型
3)配置nomic-embed-text 模型
4)配置bge-m3 模型
5)添加成功后结果如下所示
点击“系统模型设置”,把刚才添加的模型,设置为系统模型,数据集为中文,嵌入模型选择bge-m3模型
1)点击知识库标签页,然后点击“创建知识库”按钮,填写知识库名称
2)修改知识库配置,语言选择中文,嵌入模型选择bge-m3 ,解析方法选择Q&A,点击“保存”
3)切换到“数据集”标签栏,点击“上传文件”按钮,选择本地上传
4)上传数据集文件
如果提示上传的文件总大小过大,那么就分批上传或者单个上传
5)解析文档
勾选所有文档,然后点击“批量”按钮,选择“启动”
文档比较大,解析耗时较长,需要耐心等待Embedding模型将文档的每个QA对做成向量
6)预览文件
7)检索测试
切换到“检索测试”标签页,测试下知识库回答的准确性
具体参数和内容按需调整,下面截图仅供参考
1)助理设置
2)提示引擎设置
3)模型设置
1)新建聊天窗口
2)输入问题测试效果
本文详细介绍了如何将RAGFlow私有化部署,并且接入Ollama部署本地大模型,搭建医疗问诊助手。希望能对大家有所帮助!
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-06-20
2024-06-14
2024-07-03
2024-06-06
2024-06-14
2024-06-21
2024-06-16
2024-06-07
2024-07-24
2024-10-09
2024-12-13
2024-11-19
2024-11-06
2024-10-25
2024-10-25
2024-10-25
2024-10-18
2024-10-09