微信扫码
与创始人交个朋友
我要投稿
关注真聊技术,我们一起探究AI奥秘!
在前两篇文章中,我们详细介绍了如何通过 vLLM 高效部署开源模型 GLM-4-9B-Chat 和 Qwen2.5,并分享了验证代码。这两款模型体量较小,使用单张 4090 显卡即可部署,且在企业实际应用场景中表现优异。
本章将聚焦当前备受瞩目的开源模型 DeepSeek-V3。作为一款自称超越所有开源模型,甚至在部分能力上超过闭源模型的产品,DeepSeek-V3展现了惊人的潜力。不过,从 RAG 系统的实际需求来看,采用 DeepSeek-V3 似乎有些“大材小用”,它更适合应用于数学与代码等需要强推理能力的场景。
下表是DeepSeek-V3官网给出基础模型的测试打分:
官网打分部分截取
从这份测试报告中可以看到,DeepSeek-V3 在代码(Code)和数学(Math)领域全面超越了几款主流开源模型,尤其是阿里的 Qwen2.5-72B。值得注意的是,Qwen2.5-72B 本身已是一款强大的模型,尤其在 Code 和 Math 上表现不俗,而报告中显示 DeepSeek-V3 的性能超越了它,这无疑为业界带来了一次令人瞩目的技术突破,进一步巩固了其在高复杂性任务中的领先地位。
DeepSeek-V3介绍
架构:创新负载平衡策略和训练目标
预训练:实现终极训练效率
训练后:来自 DeepSeek-R1 的知识提炼
DeepSeek-V3部署
DeepSeek-V3 可以使用以下硬件和开源社区软件在本地部署:
接下来,将详细讲解如何使用 SGLang 和 vLLM 高效部署 DeepSeek-V3 的具体步骤。
SGLang部署DeepSeek-V3
GPU建议
如果您没有具有足够大内存的 GPU,请尝试多节点张量并行。
如果启动服务器时遇到错误,请确保权重已下载完成。建议提前下载或多次重启,直到下载完所有权重。
# Pull latest image
docker pull lmsysorg/sglang:latest
# Launch
docker run --gpus all --shm-size 32g -p 30000:30000 -v ~/.cache/huggingface:/root/.cache/huggingface --ipc=host lmsysorg/sglang:latest \
python3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-code --port 30000
对于高 QPS 场景,添加--enable-dp-attention
参数以提高吞吐量。
# Installation
pip install "sglang[all]>=0.4.1.post5" --find-links https://flashinfer.ai/whl/cu124/torch2.4/flashinfer
# Launch
python3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-code
对于高 QPS 场景,添加--enable-dp-attention
参数以提高吞吐量。
import openai
client = openai.Client(
base_url="http://127.0.0.1:30000/v1", api_key="EMPTY")
# Chat completion
response = client.chat.completions.create(
model="default",
messages=[
{"role": "system", "content": "You are a helpful AI assistant"},
{"role": "user", "content": "你真的那么强吗?"},
],
temperature=0,
max_tokens=64,
)
print(response)
vLLM部署DeepSeek-V3
单 GPU(无分布式推理):如果您的模型适合单 GPU,则可能不需要使用分布式推理。只需使用单 GPU 运行推理即可。
单节点多 GPU(张量并行推理):如果您的模型太大,无法放入单个 GPU,但可以放入具有多个 GPU 的单个节点,则可以使用张量并行。张量并行大小是您要使用的 GPU 数量。例如,如果您在单个节点中有 4 个 GPU,则可以将张量并行大小设置为 4。
多节点多 GPU(张量并行加流水线并行推理):如果您的模型太大,无法放入单个节点,则可以将张量并行与流水线并行结合使用。张量并行大小是您希望在每个节点中使用的 GPU 数量,流水线并行大小是您希望使用的节点数量。例如,如果您在 2 个节点中有 16 个 GPU(每个节点 8 个 GPU),则可以将张量并行大小设置为 8,将流水线并行大小设置为 2。
简而言之,您应该增加 GPU 数量和节点数量,直到您有足够的 GPU 内存来容纳模型。张量并行大小应该是每个节点中的 GPU 数量,管道并行大小应该是节点数量。
安装和启动
通过查阅 vLLM 的 issue 列表可以发现,目前 vLLM 对 DeepSeek-V3 的支持仅处于基础运行阶段,性能尚未达到预期。因此,暂不提供安装和启动的详细指南。待 vLLM 的增强计划完成后,我们会及时更新相关内容并提供完整的部署说明。
写在最后
DeepSeek-V3 在代码和数学领域表现突出,对于关注这些方向的企业来说无疑是一大喜讯。毕竟,这两项能力在市场上有着广阔的应用前景,而以往具有高性能的模型大多为闭源且高成本。DeepSeek-V3 的出现,以开源形式提供了强大的能力,不仅降低了门槛,也为创业和技术创新提供了更多可能性。它的发布在大模型领域引发了不小的轰动,为行业带来了更多选择和活力。
题外话:在 DeepSeek-V3 提供的聊天门户中,我尝试了一段 Prompt 的生成,出于好奇,将这段 Prompt 分别用于测试文心一言、豆包、Kimi、元宝和通义等模型。结果如何,你们一定想不到!建议大家亲自尝试一下。
Prompt如下:
帮我写 1 个面向年轻女性宣传一款内衣的品牌营销slogan,简洁吸睛,富有创意,字数要求150字。
推荐阅读:
构建企业私有RAG大模型: (可商用)Qwen2.5开源模型vLLM部署及示例
构建企业私有RAG大模型: (可商用)利用vLLM部署开源大模型,能写文章、能聊天!
声明:本文为 真聊技术 原创,转载请联系授权。
看完本文有收获?请转发分享给更多人
关注「真聊技术」,提升综合技能
真聊技术
分享、点赞和在看就是最大的支持❤️
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-01-15
MiniMax-01开源:新架构开启Agent时代
2025-01-15
MiniMax 深夜首次开源,400万长文本,全新架构,挑战Transformer
2025-01-15
微软开源AI Agent大更新,重塑智能体!多层级更强架构
2025-01-14
价值「40亿美元」的AI Agent开源框架
2025-01-13
Roo-Cline:集成在 IDE 中的自主编码助手,Cursor 的开源替代
2025-01-13
微软phi-4来啦!小模型之光,14B科学、代码等能力超70B模型效果!
2025-01-13
用Ollama轻松搞定Llama 3.2 Vision模型本地部署
2025-01-13
工业界主流大语言模型后训练(Post-Training)技术总结
2024-07-25
2024-05-06
2024-08-13
2024-06-12
2024-07-11
2024-07-20
2024-09-20
2024-06-16
2024-06-10
2024-06-06
2025-01-16
2024-12-24
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13
2024-11-13