微信扫码
与创始人交个朋友
我要投稿
DeepSeek R1本地部署,享受无限制、高隐私的AI体验!核心内容:1. DeepSeek全球下载榜单登顶,流量巨大2. 为何选择本地部署DeepSeek R1及优势3. 使用ollama + open-webui一键部署DeepSeek R1的详细步骤
点击上方蓝字关注我们
DeepSeek这把火烧遍了全球,昨天看还是霸榜30多个国家的App下载榜单第一名,现在已经上升到包括美国、日本、加拿大等在内的164个国家的App下载榜单第一名!
这巨大的流量导致deepseek在昨天几乎崩溃了,这是我在昨天使用deepseek的情况,时不时就会遇到下面这个回复。
所以我就在想,既然deepseek R1是开源的,直接本地部署使用吧。
而且本地部署大模型之后,没有各种限制,可以为所欲为,放飞自我,自给自足,隐私性拉满,不联网也可以用~
我们还是用之前讲过的ollama + open-webui来一键部署deepseek r1
这俩好搭档非常之牛掰且好用,看他俩在Github的Star就知道了。
用ollama管理、运行deepseek,在open-webui接入ollama之后,我们就可以完全界面化去下载安装deepseek r1,界面化给大模型调整参数,并设定预设prompt,以及对话(如下图),非常方便。
好了,话不多说,我们开始本地部署deepseek r1!
首先就得安装ollama和open-webui,ollama可以下载官方的exe文件,一键安装,open-webui可docker部署,不清楚的朋友可以先看我之前写的这篇文章先把ollama和open-webui部署好
部署ollama、open-webui
袋鼠帝,公众号:袋鼠帝AI客栈独家!开源AI接入微信【一】ollama + open-webui
但是注意,英伟达GPU的朋友请用如下指令部署open-webui(指令在控制台输入,前提是先安装、启动了docker-desktop):
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Docker-desktop墙烈推荐大家都装上,不仅是open-webui,其他绝大多数Github的开源项目都支持用docker一键部署,docker的好处是自带虚拟环境,不需要在本地额外安装一堆其他环境、依赖等,是管理、部署项目的神器。
open-webui也强烈推荐大家安装使用,它应该是目前功能最全,最好用的大模型webui工具。
安装完ollama和open-webui,并在open-webui接入本地ollama之后,就可以非常方便的一键安装deepseek r1使用了~
首先我们打开ollama官网,找到deepseek r1模型
ollama地址:https://ollama.com/library/deepseek-r1:8b
可以看到有这么些模型,以及模型的参数大小(1.5b~671b)和本身所需磁盘空间的大小(1.1G~404G)
671b参数,404G大小的这个deepseek r1模型,就是deepseek官网上的那个R1。
但是671b参数的大模型所需的算力惊人,不是我们普通人能玩儿的起的。
下图是ollama给出的模型选择建议
这里的RAM是指显存
如何查看我们电脑的显存大小呢?
Ctrl + Shift + Esc打开任务管理器->性能->GPU
可以看到,我的电脑显存是8G(英伟达3060 ti)
经过测试,deepseek-r1:8b对我的电脑来说,运行流畅,体验最好~
如果换成deepseek-r1:14b,勉强能用,但是比较慢,不流畅,体验欠佳。
所以接下来我们浏览器访问open-webui的页面去下载deepseek-r1:8b
如果安装好open-webui,直接访问:http://127.0.0.1:3000/ 即可进入open-webui页面。
我们进入open-webui之后,点击 左下角用户->设置
点击 管理员设置
进入模型页面,点击右上角的 下载按钮
在下图位置输入:deepseek-r1:8b,点击下载图标开始下载(需要科学上网,否则下载很慢)
当下载的进度条到达100%,就代表下载完毕
我们在模型页面刷新一下,就能看到下载好的deepseek-r1:8b模型啦
接下来 点击左上角创建新对话 就可以在本地愉快的使用r1了
测试下来8b的r1数学、代码能力都不太够,用来写作,总结文档倒是很不错。
另外14b的r1,文字能力更强,GPU显存更大的朋友(大于8G)可以上14b试试。
在之前下载模型的弹框中,可如下图这样删除模型
还可以在系统提示词中,配上 拟人化提示词 去玩儿,打造一个本地虚拟AI角色~
最后Groq这个平台上了deepseek-r1:70b,也是免费用,如果deepseek官网太拥堵,也可以去Groq体验低一档的r1:70b
Groqd地址:https://chat.groq.com/
以上就是本期所有啦,能看到这里的都是人中龙凤!如果觉得不错,随手点个赞、在看、转发三连吧
如果想第一时间收到推送,也可以给我个星标⭐
谢谢你耐心看完我的文章~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-02
快速搭建专业AI知识库的开源工具:Ragflow
2025-02-01
刚刚,OpenAI发布o3-mini,可免费使用、3大推理模式
2025-02-01
奥特曼:在开源AI上,我们错了!DeepSeek让OpenAI优势不再,下一个是GPT-5
2025-02-01
回应DeepSeek抄袭的质疑,DeepSeek和OpenAI ChatGPT的比较
2025-01-31
吴恩达评DeepSeek:中国 AI 崛起,开源模型重塑行业格局
2025-01-30
我让DeepSeek自己谈它和GPT的区别,大白话版笑死我了
2025-01-29
使用DeepSeek必备的10个技巧
2025-01-28
一分钟上手本地运行 DeepSeek
2025-01-01
2024-07-25
2024-05-06
2025-01-21
2024-08-13
2024-06-12
2024-09-20
2024-07-11
2024-07-20
2024-12-26
2025-01-22
2025-01-16
2024-12-24
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13