微信扫码
和创始人交个朋友
我要投稿
深入解析DeepSeek企业级部署,高效稳定应对AI挑战。 核心内容: 1. 选择适合企业需求的DeepSeek版本镜像 2. 深度剖析不同推理框架的选择与应用 3. 从云服务器部署到Dify配置的全流程指南
Deepseek最近太火了,关于 Deepseek 的文章虽多,但大多局限于 Ollama 部署 Deepseek 这类“玩具”场景,难以满足企业级应用的复杂需求。这些低质量内容往往缺乏深度与实用性,对于追求高效、稳定解决方案的企业而言,犹如隔靴搔痒。
而我们的专业团队,始终关注行业前沿动态,凭借对技术趋势的精准把握和深厚的技术积累,迅速捕捉到企业在 Deepseek 应用中的痛点与需求。在极短的时间内,精心打造出这篇文章。
文章聚焦于企业级应用场景,深度剖析了从云服务器部署到 Dify 配置的全流程,每一个步骤都经过反复验证,确保内容的专业性与准确性。无论是技术细节的深度挖掘,还是实际应用的场景拓展,都远超同类文章。它不仅是一份技术指南,更是企业迈向高效、智能运营的有力工具,为企业在人工智能领域的深度探索提供了高价值的参考。
首先说一下选择什么版本的镜像。满血版R1有671B,需要的卡及存储都太大,我们可以选择DeepSeek-R1-Distill-Qwen-32B作为平替,在精度要求不那么高的场景下部署起来,作为满血版的补充。
然后是选择推理框架。推理框架分为以下几种:
经实践测试,如果部署满血版R1建议使用SGLang镜像,如果部署蒸馏版模型建议使用vLLM,效果更好。
首先我们选择GPU ECS(我选的是火山引擎,因为火山引擎已缓存推理引擎和模型文件直接拉取速度较快),文件信息如下:
推理引擎镜像:cp-controller-cn-beijing.cr.volces.com/appdeliver-ml/vllm:0.7.1
模型文件:docker run时候会自动下载对应模型文件,如果有手动下载需求,下面链接供参考。
https://cp-public-model-cn-beijing.tos-cn-beijing.volces.com/models/DeepSeek-R1-Distill-Qwen-7B/ | ||
https://cp-public-model-cn-beijing.tos-cn-beijing.volces.com/models/DeepSeek-R1-Distill-Qwen-32B/ | ||
https://cp-public-model-cn-beijing.tos-cn-beijing.volces.com/models/DeepSeek-R1-Distill-Llama-70B/ |
ECS实例的规格可以参考下面配置:
模型名称 | 参数量 | |||||
---|---|---|---|---|---|---|
我选择的服务器配置:
购买后,进入控制台,安装docker + nvidia container toolkit,具体如下:
# Update the apt package index and install packages to allow apt to use a repository over HTTPS
sudo apt update
sudo apt install ca-certificates curl gnupg lsb-release
# Add Docker’s official GPG key
sudo mkdir -p /etc/apt/keyrings
curl -fsSL https://mirrors.ivolces.com/docker/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
# Use the following command to set up the repository
echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://mirrors.ivolces.com/docker/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
# update package index
sudo apt update
# Install docker-ce
sudo apt install docker-ce docker-ce-cli containerd.io docker-compose-plugin
curl -s https://mirrors.ivolces.com/nvidia_all/ubuntu2204/x86_64/3bf863cc.pub | sudo apt-key add -
cat <<EO[F >/etc/apt/sources.list.d/nvidia.list](https://mirrors.ivolces.com/nvidia_all/ubuntu2204/x86_64/3bf863cc.pub)
deb http[://mirrors.ivolces.com/nvidia_all/ubuntu2204/x86_64/ /](https://mirrors.ivolces.com/nvidia_all/ubuntu2204/x86_64/3bf863cc.pub)
EOF
apt upda[te](https://mirrors.ivolces.com/nvidia_all/ubuntu2204/x86_64/3bf863cc.pub)
apt inst[all nvidia-container-toolkit](https://mirrors.ivolces.com/nvidia_all/ubuntu2204/x86_64/3bf863cc.pub)
sudo nvi[dia-ctk runtime configure --runtime=docker](https://mirrors.ivolces.com/nvidia_all/ubuntu2204/x86_64/3bf863cc.pub)
sudo sys[temctl restart docker](https://mirrors.ivolces.com/nvidia_all/ubuntu2204/x86_64/3bf863cc.pub)
接下来正式部署doccker镜像(单机4卡,TP=4,PORT=8888可自定义):
docker run -d --network host --privileged --gpus=all --name=vllm_qwen32B --ipc=host -v /data00/models:/data00/models -v /var/run/nvidia-topologyd/:/var/run/nvidia-topologyd/ -e MODEL_PATH=/data00/models -e PORT=8888 -e MODEL_NAME=DeepSeek-R1-Distill-Qwen-32B -e TP=4 cp-controller-cn-beijing.cr.volces.com/appdeliver-ml/vllm:0.7.1
静等pull完成,然后看到返回compeleted,别急还没加载完成,打开docker日志继续观察:
docker logs vllm_qwen32B
日志输出出如下:
等到完成100%,恭喜你加载完成,docker启动成功了。
接下来先服务器内测试下是否启动成功:
执行以下curl 命令,观察到流式生成为模型正常运行,可以进行下一步的模型调用。
curl -X POST [http://0.0.0.0:8888/v1/chat/completions](http://0.0.0.0:6001/v1/chat/completions) -H "Content-Type: application/json" -d '{
"model": ["/data00/models/DeepSeek-R1-Distill-Qwe](http://0.0.0.0:6001/v1/chat/completions)n-32B",
"messages[": [](http://0.0.0.0:6001/v1/chat/completions)
{
"[role": "user",](http://0.0.0.0:6001/v1/chat/completions)
"[content": "请证明一下黎曼猜想"](http://0.0.0.0:6001/v1/chat/completions)
}
],
"stream": [true,](http://0.0.0.0:6001/v1/chat/completions)
"max_toke[ns": 100,](http://0.0.0.0:6001/v1/chat/completions)
"temperat[ure": 0.7](http://0.0.0.0:6001/v1/chat/completions)
}'
提醒:执行curl命令可能会返回 拒绝连接的提示,如下图,可能是权重文件没有下载和加载完毕,可以稍后再重试。
如果你部署在云端,需要调整安全组策略,添加入方向规则开放8888端口。配置完毕,接下来在Postman上调用接口测测看:
可以看到返回中有reasoning_content,R1推理成功。
好,接下来就是集成到应用平台,可以进行对话聊天了。我们用dify做为应用构建平台。
以下安装流程很通用,也可以参考dify官网的说明。
在安装 Dify 之前,请确保您的机器满足以下最低系统要求:
CPU >= 2 Core
RAM >= 4GB
git clone [https://github.com/langgenius/dify.git](https://github.com/langgenius/dify.git)
cd dify/docker
cp .env.example .env
docker compose up -d
检查是否所有容器都正常运行
docker compose ps
包括3个业务服务api / worker / web,包括6个基础组件weaviate / db / redis / nginx / ssrf_proxy / sandbox。
cd dify/docker
docker compose down
git pull origin main
docker compose pull
docker compose up -d
==注意:同步环境变量配置 ==
如果 .env.example 文件有更新,请务必同步修改您本地的 .env 文件。
检查 .env 文件中的所有配置项,确保它们与您的实际运行环境相匹配。您可能需要将 .env.example 中的新变量添加到 .env 文件中,并更新已更改的任何值。
由于项目中启动了一个nginx容器将web服务转发到80端口,您可以直接在浏览器中输入公网IP地址,并设置管理员的账号密码,进入Dify应用主界面。在浏览器中输入 http://localhost 访问 Dify。
最后一步,配置大模型
选择用户信息下拉列表->设置->模型供应商,选择【OpenAI-API-compatible】模块,配置自定义模型接口。
按照下图格式配置信息,API Key没有就填EMPTY.
保存后,记得在模型列表选择配置按钮,开启模型。
最后,创建一个空白应用,在模型列表里选择刚配置的模型即可。
点击发布应用,就可以进入聊天界面啦。
当然,目前与dify的集成还有些问题,比如思考内容不能输出,上下文对话轮次不能调整等。后续待优化。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-07
DeepSeek API 又崩了?Dify 三重保险让你的应用永不掉线
2025-01-17
从 Dify 到 Rill-Flow:大模型应用平台的进化之路
2025-01-13
前后端源码部署:Dify v0.15.0 升级 v1.0.0-beta.1 的尝试
2025-01-11
Dify v1.0.0-beta:插件开启公测
2025-01-07
Dify v0.15.0:全新父子检索策略 - 更精准,更全面的知识检索
2024-12-27
【场景驱动】企业的哪些重复性任务,最适合用Coze循环节点来解决?——慢慢学AI146
2024-12-24
Coze,Dify,FastGPT,哪个更强?全方位对比分析来了!
2024-12-19
打开日本市场背后,Dify 是怎么做 AI 全球化的?
2024-04-25
2024-12-24
2024-07-16
2024-04-24
2024-07-20
2024-05-08
2024-05-09
2024-05-07
2024-06-21
2024-08-06