AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


DeepSeek本地部署+知识库+联网搜索,终极版方案,保姆级教程!

发布日期:2025-02-13 16:58:40 浏览次数: 1745 来源:格雷的梦呓
推荐语

格雷手把手教你搭建DeepSeek知识库,从本地部署到联网搜索,一网打尽!

核心内容:
1. DeepSeek本地部署全流程,从安装ollama到启动模型
2. 解决部署中常见问题,如Docker安装和GPU利用率低
3. 安装Page Assist插件,实现本地AI模型的Web UI操作

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

今天就来解决这些问题,一个本地部署+私人知识库+联网搜索的终极方案。
本地部署DeepSeek
如果你是老粉,看过我以前的文章,这一步可跳过,直接ollama run deepseek-r1:1.5b。
首先打开ollama官网:https://ollama.com
下载,一步步安装即可。
CMD命令窗口运行,启动deepseek-r1模型:
ollama run deepseek-r1:7b
根据自己显卡大小,选择对应的参数规模,1.5b最小,可以先用这个来尝试,完成以后再跑更大的参数模型。
另外有人反馈,任务管理器显示,大模型在执行的时候,回答很慢,GPU几乎没动,全都是CPU跑。
大概率是安装了老版本的Ollama,官网下载最新的文件重新安装即可。
安装Page Assist插件
网络条件允许的话,直接谷歌商店搜索下载,下面介绍的方法国内网络可用。
打开网站Crx搜搜:
https://www.crxsoso.com
搜索:Page Assist,第一个就是今天主角,本地AI模型的Web UI。
下载到本地,谷歌浏览器打开:chrome://extensions/,右上角打开开发者模式,将下载好的crx文件拖入浏览器,完成插件的安装。
浏览器上方的扩展程序列表,找到Page Assist插件,点击进入WebUI界面。
左上角可以选择ollama的所有本地模型,所以选deepseek-r1:7b就好了。
到这一步就可以流畅地使用deepseek大模型啦。
首次使用是英文版,不太习惯,点击右上角设置齿轮,【General Settings】,分别选择【简体中文】。
设置联网搜索
依然是右上角设置齿轮,【一般设置】,下方有个【管理网络搜索】,选择合适的搜索引擎,总搜索结果默认是2,可以适当调大一些,这样参考网络资源的权重更大。
记得点击保存。
回到聊天页面,打开聊天框下方的【搜索互联网】开关,联网搜索功能就搞定啦。
比如问一个关于《哪吒2》的评价,除了看到思考过程,下方还有列出了引用的数据来源。
现在,完成了本地部署+联网搜索,还差知识库...
搭建私人知识库
CMD窗口运行命令:
ollama pull nomic-embed-text
回到设置,【RAG设置】,文本嵌入模型选择【nomic-embed-text:latest】,保存。
文本嵌入模型的作用是,让大模型理解我们的文本资料。
左侧菜单【管理知识】,【添加新知识】,指定知识的标题,并上传我们的本地资料,提交。
这里的知识,指的就是知识库,当状态是【已完成】,代表大模型已经处理完成了。
回到聊天窗口,右下方就可以选到刚刚添加的知识库。
提问:
DeepSeek-R1是什么?
本地大模型完美地回答了我们的问题,知识库搭建完成!
简单回顾一下,这次的方案:Ollama + Page Assist插件,没有docker的复杂配置,而且完美地实现了本地部署+联网搜索+知识库。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

 
扫码咨询