支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


群晖上私有化部署DeepSeek-R1

发布日期:2025-02-09 05:34:53 浏览次数: 3090 作者:各种折腾
推荐语

探索群晖NAS上的DeepSeek-R1私有化部署,实现本地化智能推理。

核心内容:
1. DeepSeek-R1模型及其与OpenAI-o1的性能对比
2. 模型蒸馏技术及其在DeepSeek-R1中的应用
3. 群晖NAS上部署DeepSeek-R1的步骤与优势

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

简介

上一篇介绍的 deepseek-free-api ,主要是提供接口服务,允许用户通过网络访问 DeepSeek 模型的能力。这意味着,尽管用户可以在本地容器中运行该 API,但实际的模型推理和处理仍依赖于远程服务器或云服务,用户在使用时需要考虑网络连接的稳定性和访问权限。

什么是 DeepSeek-R1 ?

DeepSeek-R1  是 DeepSeek 的第一代推理模型,在数学、代码和推理任务中,其性能与 OpenAI-o1 相当,包括基于 LlamaQwen 的六个从 DeepSeek-R1 蒸馏出的密集模型。

什么是蒸馏 ?

蒸馏技术(Distillation)是一种模型压缩和优化的方法,主要用于将一个大型、复杂的模型的知识转移到一个较小的模型中。这个过程通常被称为“知识蒸馏”(Knowledge Distillation

其中 671b教师模型Teacher Model), 另外的 6 个蒸馏模型为学生模型Student Model

  • 1.5b:全称是 DeepSeek-R1-Distill-Qwen-1.5B,蒸馏模型源自 Qwen-2.5 系列;
  • 7b:是 DeepSeek-R1-Distill-Qwen-7B,蒸馏模型源自 Qwen-2.5 系列;
  • 8b:是 DeepSeek-R1-Distill-Llama-8B,蒸馏模型源自 Llama3.1-8B-Base
  • 14b:是 DeepSeek-R1-Distill-Qwen-14B,蒸馏模型源自 Qwen-2.5 系列;
  • 32b:是 DeepSeek-R1-Distill-Qwen-32B,蒸馏模型源自 Qwen-2.5 系列;
  • 70b:是 DeepSeek-R1-Distill-Llama-70B,蒸馏模型源自 Llama3.3-70B-Instruct

安装

ollama

  1. 首先要安装本地大模型运行框架 ollama
  2. 再根据机器的性能,下载对应参数的 DeepSeek-R1 模型;
模型版本适用场景内存占用推理速度
1.5b轻量级任务3GB15 token/s
7b常规对话10GB8 token/s
70b复杂推理48GB2 token/s

需要说明的是,ollama 除了 docker 方式部署外,也支持主流操作系统(WindowsmacOSLinux)的二进制安装包

当然老苏还是更喜欢在 NAS 上用 docker 方式部署

文章传送门:本地大模型运行框架Ollama

# 新建文件夹 ollama 和 子目录
mkdir -p /volume1/docker/ollama/data

# 进入 ollama 目录
cd /volume1/docker/ollama

# 运行容器(仅 CPU)
docker run -d \
   --restart unless-stopped \
   --name ollama \
   -p 11434:11434 \
   -v $(pwd)/data:/root/.ollama \
   ollama/ollama

# 进入容器
docker exec --user root -it ollama /bin/bash

# 下载模型
ollama pull deepseek-r1:1.5b

# 运行模型
ollama run deepseek-r1:1.5b

# 联网会用到的文本嵌入式模型
ollama pull nomic-embed-text

WebUI

命令行方式用起来毕竟还是不太方便,虽然支持 ollamaWebUI 很多,而且也可以接入 One API 进行统一管理 ,但老苏觉得最佳的交互体验组合应该还是 Open WebUI

文章传送门:适配Ollama的前端界面Open WebUI

不过今天老苏不打算使用 Open WebUI,而是给大家推荐一款浏览器插件 Page Assist

它通过插件形式直接集成到侧边栏,无需复杂配置即可一键调用本地部署的 AI 模型,让您可以从任何网页与您的模型进行交互。

相比传统 WebUIPage Assist 具备一定的技术优势

特性传统 WebUIPage Assist
部署复杂度需独立服务部署浏览器插件即装即用
资源占用200MB+ 内存<50MB 内存
上下文感知能力手动复制粘贴自动捕获网页选区
多模型切换需重新加载页面实时无缝切换

目前支持的浏览器

浏览器侧边栏与网页聊天网页界面
Chrome
Brave
Firefox
Vivaldi
Edge
LibreWolf
Zen Browser
Opera
Arc

运行

设置

在浏览器中打开插件,会看到错误信息 Unable to connect to Ollama

这是因为我们并没有在本机安装 ollama,而是安装在 NAS 上,因此不能通过 127.0.0.1 或者 localhost 进行访问。

  1. 单击右上角的 Settings 图标
  1. 单击选项卡  Ollama Settings
  1. 修改 Ollama URL 并点 save 保存
  1. 展开Advance Ollama URL Configuration选项,并启用 Enable or Disable Custom Origin URL
  1. 回到主界面,如果 Ollama URL 地址没问题,应该会看到 Ollama is running ?

中文

这一步不是必须的,只是大部分人,也包括老苏,更习惯中文的使用环境

在设置界面 --> General Settings

设置为 简体中文

聊天

现在可以开始聊天了。因为机器性能的缘故,老苏用的是 1.5b 的模型

联网会需要用到文本嵌入模型

老苏使用了推荐的 nomic-embed-text

侧边栏

在任意一个网页,选中  Page Assist 插件点右键菜单,启动 侧边栏

勾选 与当前页面聊天

让模型总结一下页面的内容

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询