微信扫码
和创始人交个朋友
我要投稿
探索数字化时代知识管理的革新,体验DeepSeek如何将本地文件转化为智能知识库。 核心内容: 1. DeepSeek在本地知识库中整合信息的神奇能力 2. 通过Markdown文件示例,展示DeepSeek如何学习和吸收资料 3. 实际操作DeepSeek,探索其对新知识的定义和推理能力
在当今数字化的时代,信息和知识如同浩瀚的海洋,而我们每个人都要在其中寻找属于自己的宝藏。
想象一下,作为一名医生,你手中握有海量的科研资料,它们如同一座座知识的孤岛,等待着被探索和整合。如果能够拥有一位专属的“知识机器人”,它不仅能够学习并吸收你所有的资料,还能在你需要时,迅速为你提供精准的答案,这将是多么令人向往的事情啊!
你无需再耗费大量时间在繁琐的资料检索中,只需简单地向它提问,答案便如自来水般涌现。这,便是本地部署与知识库结合的神奇之处。它不仅仅是一个技术的应用,更是一种对个人智慧的赋能。
首先,我们编写一个简单的 markdown 文件,内容如下:
三角形分类
- 黄金三角形就是三个角的大小比例为 1:2:3 的三角形。
- 白银三角形就是三个角的大小比例为 2:3:4 的三角形。
- 青铜三角形就是三个角的大小比例为 1:1:4 的三角形。
- 烂铁三角形就是三个角的大小的比例为 1:3:8 的三角形。
取个名字,比如 知识荒漠.md
,当然把它导出为 pdf 格式也是可以的。当然,一般来说你会有很多这类文件。然后,把它们导入到本地知识库,后面会讲具体如何操作。
这里提一下,黄金三角形和白银三角形本身是有这样的定义,但我们这里随便下点定义,为了看看 DeepSeek 作何反应。而后面两个是没有的,完全是我们杜撰的,可以理解为要喂给大模型的新知识。
好了,开始调戏本地的 DeepSeek。
比如问它:请解释下青铜三角形。
由于实际中并没有这个定义,所以它只能从我们本地知识库中获得这个知识,加上它自己的推理,构建了具体的概念并总结了一些性质,虽然它有些谨慎。
再问它:请解释下黄金三角形。
由于实际中有这个定义,但是它又看到了本地知识库中的这个概念,显然它们不一致,所以 DeepSeek 有些纠结,但会结合它自己的推理来决定最终怎么解释。
可见 DeepSeek 还是很聪慧的,不会轻易被外部知识误导。
另外,如果你嫌 AI 大模型翻译得不到位,是不是可以给它喂一些本地知识调教它呢!
DeepSeek 读取本地知识库主要是通过检索增强生成(Retrieval-Augmented Generation,RAG
)技术实现的。以下是具体实现过程:
向量嵌入模型:需要一个嵌入模型(如 nomic-embed-text
或 BAAI/bge-m3
)将本地知识库中的文本内容转换为向量形式。这些向量会被存储到向量数据库(如 LanceDB)中。
知识库的创建与配置:在本地部署 DeepSeek 的基础上,通过相关工具(如 Cherry Studio
)配置嵌入模型和向量数据库。创建知识库时,选择已配置的嵌入模型,上传本地文件进行向量化处理。
RAG 技术:当用户提问时,RAG 技术会利用向量数据库中的向量数据,通过检索找到与问题最相关的知识库内容。DeepSeek 会结合检索到的知识库内容生成回答。
模型与工具:DeepSeek R1 等模型通过 API 配置到各种工具中(如 Cherry Studio
),以实现对本地知识库的读取和处理。通过上述技术,DeepSeek 能够高效地读取和利用本地知识库,为用户提供精准的回答。
可能你会想这与直接以附件形式上传给大模型有什么区别?这个留给大家自己琢磨吧。好了,原理大致了解了,让我们动手吧。
访问 Ollama 官网:前往 Ollama 官网,点击 Download 按钮。
下载安装包:根据你的操作系统选择对应的安装包。下载完成后,直接双击安装文件并按照提示完成安装。
验证安装:安装完成后,在终端输入以下命令,检查 Ollama 版本:
ollama --version
如果输出版本号(例如 ollama version is 0.2.8
),则说明安装成功。
选择模型版本:
下载模型:打开终端,输入以下命令下载并运行 DeepSeek 模型。例如,下载 8B 版本的命令为:
ollama run deepseek-r1:8b
如果需要下载其他版本,可以参考以下命令:
ollama run deepseek-r1:7b # 7B 版本
ollama run deepseek-r1:14b # 14B 版本
ollama run deepseek-r1:32b # 32B 版本
启动 Ollama 服务:在终端运行以下命令启动 Ollama 服务:
ollama serve
服务启动后,可以通过访问 http://localhost:11434
来与模型进行交互。
下载 Cherry Studio:
访问 Cherry Studio 官网,选择适配你操作系统的版本进行下载安装。
配置模型服务:
http://localhost:11434
)。添加 DeepSeek 模型:
输入模型名称 deepseek-r1:8b
或其他版本,点击 “添加”。
通过如下命令下载这个嵌入模型。
ollama pull bge-m3
添加嵌入模型:
bge-m3
),用于文档拆分和理解。添加本地知识库:
Cherry Studio
的聊天窗口中,点击知识库图标,选中之前创建的知识库。Cherry Studio
将调用 DeepSeek 模型,结合知识库内容生成回答。Cherry Studio
的可视化界面进行交互。Cherry Studio
提供了丰富的功能,包括对话知识库、联网搜索、多模型接入等,非常适合新手快速上手。最后,如果还想要 DeepSeek 结合搜索的话,可以使用浏览器插件 Page Assist。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-19
满足个性化需求,手把手教你微调DeepSeek大模型
2025-02-19
DeepSeek V3+R1满血微调工具上线!一键启动,硬件要求降10倍
2025-02-18
DeepSeek R1 671B 完整版本地部署教程来了!!!
2025-02-18
昇腾 910B 部署满血 DeepSeek-R1
2025-02-18
如何训练LLMs像DeepSeek-R1“思考”
2025-02-17
7G显存,训练你自己的DeepSeek-R1
2025-02-17
DeepSeek-R1 如何通过知识蒸馏将推理能力传递给 Qwen
2025-02-16
飞书多维表格+Deepseek王炸组合,最强AI agent工具
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-11
2024-07-09
2024-07-26
2025-01-27
2025-02-01
2024-12-29
2025-02-16
2025-02-10
2025-02-10
2025-02-09
2025-02-05
2025-01-24
2025-01-22
2025-01-14