微信扫码
添加专属顾问
我要投稿
深入实战部署大型语言模型,高效利用资源,少走弯路! 核心内容: 1. 内网部署DeepSeek的实战经验总结 2. 硬件与软件需求详细解析 3. Ollama的安装与配置指南
大家好!我是AI安全工坊。最近,我一直在研究如何在内网环境中安全、高效地部署大型语言模型DeepSeek(LLM)。这篇教程不仅仅是操作指南,更是我的实战经验总结,希望能帮助大家少走弯路!
ollama --version
。看到版本号就说明成功了!curl -fsSL https://ollama.com/install.sh | sh
ollama --version
。curl -fsSL https://ollama.com/install.sh | sh或者,用Homebrew:
brew install ollama
ollama --version
OLLAMA_HOST
(可选):$env:OLLAMA_HOST="0.0.0.0:11434"
(注意: 0.0.0.0 表示监听所有网络接口)export OLLAMA_HOST="0.0.0.0:11434"
OLLAMA_MODELS
(可选):$env:HTTP_PROXY="http://your-proxy-server:port"
$env:HTTPS_PROXY="http://your-proxy-server:port"
export HTTP_PROXY="http://your-proxy-server:port"
export HTTPS_PROXY="http://your-proxy-server:port"
ollama run huihui_ai/deepseek-r1-abliterated:32b #越狱32B模型
ollama run deepseek-r1:32b #官方模型
ollama run bge-m3 #文本向量模型,用来做RAG知识库 二选一
ollama run nomic-embed-text #文本向量模型,用来做RAG知识库 二选一
(a) 下载:
(b) 安装:
(c) 连接Ollama:
添加模型
执行:ollama list 获取模型ID名称填入对应位置,添加即可
git clone https://github.com/lobehub/lobe-chat.git
cd lobe-chat
OPENAI_API_KEY=sk-your-openai-api-key # (不用OpenAI就留空)
ACCESS_CODE=your-super-secret-password # (一定要设置访问密码!)
OLLAMA_BASE_URL=http://your-ollama-host:11434 # (Ollama地址)
OLLAMA_API_MODEL=deepseek-coder:33b # (模型名称)
content_copydownloadUse code with caution.docker-compose up -d这条命令会帮你自动下载镜像、构建容器、启动服务。

Github:https://github.com/rag-web-ui/rag-web-ui
RAG Web UI 是一个基于 RAG (Retrieval-Augmented Generation) 技术的智能对话系统,它能够帮助构建基于自有知识库的智能问答系统。通过结合文档检索和大语言模型,实现了准确、可靠的知识问答服务。
系统支持多种大语言模型部署方式,既可以使用 OpenAI、DeepSeek 等云端服务,也支持通过 Ollama 部署本地模型,满足不同场景下的隐私和成本需求。
同时提供 OpenAPI 接口,方便用户通过 API 调用知识库。
你可以通过RAG 教程来了解整个项目的实现流程。
? 智能文档管理
支持多种文档格式 (PDF、DOCX、Markdown、Text)
文档自动分块和向量化
支持异步文档、增量处理
? 先进的对话引擎
基于 RAG 的精准检索和生成
支持上下文多轮对话
支持对话中引用角标查看原文
? 合理架构
前后端分离设计
分布式文件存储
高性能向量数据库: 支持 ChromaDB、Qdrant,通过 Factory 模式,可以方便的切换向量数据库
随便选一个你喜欢的客户端,输入问题或指令,看看模型能不能正常工作。如果一切顺利,你会看到模型流畅地输出文本!
作为一个AI安全工程师,我必须强调安全的重要性!内网环境也不是绝对安全的。
server {
listen 80;
server_name your-ollama-server.com; # 改成你的域名或IP
location / {
proxy_pass http://localhost:11434;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
# Basic Authentication (可选,强烈推荐)
auth_basic "Restricted Access"; # 提示信息
auth_basic_user_file /etc/nginx/.htpasswd; # 密码文件路径
}
}
sha256sum /path/to/your/model/file # 计算哈希值把计算出的哈希值和官方提供的对比一下。
export OLLAMA_NUM_THREAD=8 # 例如设置为8
除了上面介绍的,还有很多其他LLM客户端可能支持Ollama。你可以在客户端的设置里找“API”、“连接”或“服务器”选项,配置Ollama的地址和端口。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-22
企业私有大模型DeepSeek落地部署该用什么? Ollama还是vLLM
2025-04-21
“算法备案与大模型备案:你们是否已完成双备案?”
2025-04-21
vLLM部署Deepseek(CPU版)踩坑记录(失败经验贴)
2025-04-21
一台3090就能跑Gemma 3 27B!谷歌发布Gemma 3全系QAT版模型
2025-04-20
MCP vs Function Calling,该如何选?
2025-04-20
国内企业应用AI大模型赋能软件测试的落地实践案例
2025-04-20
8卡H20运行DeepSeek-V3-0324性能和推理实测
2025-04-19
低延迟小智AI服务端搭建-ASR篇(续):CPU可跑
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-20
2025-04-01
2025-03-31
2025-03-20
2025-03-16
2025-03-16
2025-03-13
2025-03-13