微信扫码
添加专属顾问
我要投稿
探索群晖NAS上的DeepSeek-R1私有化部署,实现本地化智能推理。 核心内容: 1. DeepSeek-R1模型及其与OpenAI-o1的性能对比 2. 模型蒸馏技术及其在DeepSeek-R1中的应用 3. 群晖NAS上部署DeepSeek-R1的步骤与优势
上一篇介绍的 deepseek-free-api
,主要是提供接口服务,允许用户通过网络访问 DeepSeek
模型的能力。这意味着,尽管用户可以在本地容器中运行该 API
,但实际的模型推理和处理仍依赖于远程服务器或云服务,用户在使用时需要考虑网络连接的稳定性和访问权限。
什么是 DeepSeek-R1 ?
DeepSeek-R1
是DeepSeek
的第一代推理模型,在数学、代码和推理任务中,其性能与OpenAI-o1
相当,包括基于Llama
和Qwen
的六个从DeepSeek-R1
蒸馏出的密集模型。
什么是蒸馏 ?
蒸馏技术(
Distillation
)是一种模型压缩和优化的方法,主要用于将一个大型、复杂的模型的知识转移到一个较小的模型中。这个过程通常被称为“知识蒸馏”(Knowledge Distillation
)
其中 671b
是教师模型(Teacher Model
), 另外的 6
个蒸馏模型为学生模型(Student Model
)
1.5b
:全称是 DeepSeek-R1-Distill-Qwen-1.5B
,蒸馏模型源自 Qwen-2.5
系列;7b
:是 DeepSeek-R1-Distill-Qwen-7B
,蒸馏模型源自 Qwen-2.5
系列;8b
:是 DeepSeek-R1-Distill-Llama-8B
,蒸馏模型源自 Llama3.1-8B-Base
;14b
:是 DeepSeek-R1-Distill-Qwen-14B
,蒸馏模型源自 Qwen-2.5
系列;32b
:是 DeepSeek-R1-Distill-Qwen-32B
,蒸馏模型源自 Qwen-2.5
系列;70b
:是 DeepSeek-R1-Distill-Llama-70B
,蒸馏模型源自 Llama3.3-70B-Instruct
;ollama
;DeepSeek-R1
模型;模型版本 | 适用场景 | 内存占用 | 推理速度 |
---|---|---|---|
1.5b | 轻量级任务 | 3GB | 15 token/s |
7b | 常规对话 | 10GB | 8 token/s |
70b | 复杂推理 | 48GB | 2 token/s |
需要说明的是,ollama
除了 docker
方式部署外,也支持主流操作系统(Windows
、macOS
或 Linux
)的二进制安装包
当然老苏还是更喜欢在 NAS
上用 docker
方式部署
文章传送门:本地大模型运行框架Ollama
# 新建文件夹 ollama 和 子目录
mkdir -p /volume1/docker/ollama/data
# 进入 ollama 目录
cd /volume1/docker/ollama
# 运行容器(仅 CPU)
docker run -d \
--restart unless-stopped \
--name ollama \
-p 11434:11434 \
-v $(pwd)/data:/root/.ollama \
ollama/ollama
# 进入容器
docker exec --user root -it ollama /bin/bash
# 下载模型
ollama pull deepseek-r1:1.5b
# 运行模型
ollama run deepseek-r1:1.5b
# 联网会用到的文本嵌入式模型
ollama pull nomic-embed-text
命令行方式用起来毕竟还是不太方便,虽然支持 ollama
的 WebUI
很多,而且也可以接入 One API
进行统一管理 ,但老苏觉得最佳的交互体验组合应该还是 Open WebUI
文章传送门:适配Ollama的前端界面Open WebUI
不过今天老苏不打算使用 Open WebUI
,而是给大家推荐一款浏览器插件 Page Assist
。
它通过插件形式直接集成到侧边栏,无需复杂配置即可一键调用本地部署的 AI
模型,让您可以从任何网页与您的模型进行交互。
相比传统 WebUI
,Page Assist
具备一定的技术优势
特性 | 传统 WebUI | Page Assist |
---|---|---|
部署复杂度 | 需独立服务部署 | 浏览器插件即装即用 |
资源占用 | 200MB+ 内存 | <50MB 内存 |
上下文感知能力 | 手动复制粘贴 | 自动捕获网页选区 |
多模型切换 | 需重新加载页面 | 实时无缝切换 |
目前支持的浏览器
浏览器 | 侧边栏 | 与网页聊天 | 网页界面 |
---|---|---|---|
Chrome | ✅ | ✅ | ✅ |
Brave | ✅ | ✅ | ✅ |
Firefox | ✅ | ✅ | ✅ |
Vivaldi | ✅ | ✅ | ✅ |
Edge | ✅ | ❌ | ✅ |
LibreWolf | ✅ | ✅ | ✅ |
Zen Browser | ✅ | ✅ | ✅ |
Opera | ❌ | ❌ | ✅ |
Arc | ❌ | ❌ | ✅ |
在浏览器中打开插件,会看到错误信息 Unable to connect to Ollama
这是因为我们并没有在本机安装
ollama
,而是安装在NAS
上,因此不能通过127.0.0.1
或者localhost
进行访问。
Settings
图标Ollama Settings
Ollama URL
并点 save
保存Advance Ollama URL Configuration
选项,并启用 Enable or Disable Custom Origin URL
Ollama URL
地址没问题,应该会看到 Ollama is running ?
这一步不是必须的,只是大部分人,也包括老苏,更习惯中文的使用环境
在设置界面 --> General Settings
设置为 简体中文
现在可以开始聊天了。因为机器性能的缘故,老苏用的是 1.5b
的模型
联网会需要用到文本嵌入模型
老苏使用了推荐的 nomic-embed-text
在任意一个网页,选中 Page Assist
插件点右键菜单,启动 侧边栏
勾选 与当前页面聊天
让模型总结一下页面的内容
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-25
DeepSeek + Dify 企业级大模型私有化部署指南
2025-04-24
自主构建MCP,轻松实现云端部署!
2025-04-24
大模型微调框架LLaMA-Factory
2025-04-23
Unsloth:提升 LLM 微调效率的革命性开源工具
2025-04-23
超越 DevOps?VibeOps 引领 AI 驱动的开发革命
2025-04-23
大模型想 “专精” 特定任务?这 3 种 Addition-Based 微调法别错过
2025-04-23
重参数化微调:揭秘LoRA家族让大模型训练成本暴降的方法
2025-04-23
为什么全参数微调能让大模型从“通才”变“专才”?
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-23
2025-04-20
2025-04-01
2025-03-31
2025-03-20
2025-03-16
2025-03-16
2025-03-13