AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


本地运行DeepSeek R1 + RAG系统

发布日期:2025-02-20 08:35:41 浏览次数: 1690 来源:Infra研习社
推荐语

掌握本地运行大型语言模型的实用指南,体验高效、私密的AI应用开发。

核心内容:
1. Ollama框架:本地运行大型语言模型的利器
2. LangChain框架:构建AI驱动应用的桥梁
3. RAG技术与DeepSeek R1模型:提升AI响应的准确性和质量

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

 本地运行DeepSeek R1 + RAG系统

基本概念

? Ollama

Ollama 是一个用于在计算机上 本地运行大型语言模型 ()LLMs 的框架 。它允许您 下载、运行 AI 模型并与之交互, 而无需基于云的 API。

示例: ollama run deepseek-r1:1.5b – 在本地运行 DeepSeek R1

为什么要使用它? 免费、私密、快速且离线工作。

? LangChain 语言链

LangChain 是一个 Python/JS 框架,用于通过与数据源、API 和内存集成LLMs来构建 AI 驱动的应用程序。

为什么要使用它?它有助于连接到LLMs实际应用程序,如聊天机器人、文档处理和 RAG。

? RAG(检索增强一代)

RAG 是一种 AI 技术,可检索外部数据(例如 PDF、数据库)并增强 LLM的响应。

为什么要使用它?通过引用实际文档来提高准确性并减少幻觉

 ⚡ DeepSeek R1 模型

DeepSeek R1 是一个开源 AI 模型,针对推理、问题解决和事实检索进行了优化。

为什么要使用它?强大的逻辑功能,非常适合 RAG 应用程序,并且可以使用 Ollama 在本地运行

入门

? 它们如何协同工作?

  • • Ollama 在本地运行 DeepSeek R1。
  • • LangChain 将 AI 模型连接到外部数据。
  • • RAG 通过检索相关信息来增强响应。
  • • DeepSeek R1 生成高质量的答案。

示例用例:一个问答系统,允许用户上传 PDF 并提出有关它的问题,由 Ollama 上的 DeepSeek R1 + RAG + LangChain 提供支持!?

? 为什么在本地运行 DeepSeek R1?

效益
基于云的模型
本地 DeepSeek R1
隐私
❌发送到外部服务器的数据
✅ 100%本地和安全
速度
⏳ API 延迟和网络延迟
⚡ 即时推理
成本
? 按 API 请求付费
? 设置后免费
定制
❌ 有限的微调
✅ 完全模型控制
部署
? 云依赖
? 离线和本地工作

? 第 1 步:安装 Ollama

? 下载 Ollama

Ollama 适用于 macOS、Linux 和 Windows。请按照以下步骤进行安装:

  1. 1. 前往 Ollama 官方下载页面
  2. 2. ? 下载 Ollama[1]
  3. 3. 选择您的作系统(macOS、Linux、Windows)
  4. 4. 点击下载按钮
  5. 5. 按照系统特定的说明进行安装

? 第 2 步:在 Ollama 上运行 DeepSeek R1

安装 Ollama 后,您可以运行 DeepSeek R1 模型。

? 运行 ollama 服务

$ ollama serve

? 提取 DeepSeek R1 模型

$ ollama pull deepseek-r1:1.5b

? 运行 DeepSeek R1

$ ollama run deepseek-r1:1.5b

它将初始化模型并允许您发送查询。

? 第 3 步:使用 Streamlit 设置 RAG 系统

现在您已经运行了 DeepSeek R1,让我们使用 Streamlit 将其集成到检索增强生成 (RAG) 系统中

? 先决条件

在运行 RAG 系统之前,请确保您已:

  • • 已安装 Python
  • • 所需的 Python 软件包
$ pip install -U langchain langchain-community
$ pip install streamlit
$ pip install pdfplumber
$ pip install semantic-chunkers
$ pip install open-text-embeddings
$ pip install faiss
$ pip install ollama
$ pip install prompt-template
$ pip install langchain
$ pip install langchain_experimental
$ pip install sentence-transformers
$ pip install faiss-cpu

? 第 4 步:运行 RAG 系统

? 创建项目

1️⃣ 创建新的项目目录

$ mkdir rag-system && cd rag-system

2️⃣ 创建 Python 脚本 (app.py),粘贴以下基于 Streamlit 的脚本:

完整的代码文件:app.py[2]

? 第 5 步:运行应用程序

脚本准备好后,启动 Streamlit 应用程序

$ streamlit run app.py

使用

  1. 1. 启动之后浏览器访问:http://localhost:8502/
  2. 2. 然后上传一个PDF文件,然后在输入框中输入问题,如下是我上传了一个DeepSeek_V3.pdf的文件,我让他给我总结。

上面的 Demo 是在我本地 Macos M3 电脑上运行成功,如果要运行改案例,需要保障有足够的内存。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

和创始人交个朋友

回到顶部

 

加载中...

扫码咨询