微信扫码
添加专属顾问
我要投稿
深度技术解读揭示DeepSeek理论成本利润率之高,引领行业变革。 核心内容: 1. DeepSeek V3/R1推理系统成本和利润率的详细披露 2. Token处理、缓存命中率对成本影响的深度分析 3. 高利润率对AI行业的潜在影响和商业模式革新
当市场以为DeepSeek的开源周内容发布完毕之后,3月1日,DeepSeek宣布了“One More Thing”,突然揭秘V3/R1推理系統,公开了大规模部署成本和收益。
根据《DeepSeek-V3/R1推理系统概览》的文章,按DeepSeek测算,假定GPU租赁成本为2美元/小时,总成本为8.7万美元/天。如果统计包括网页、App和API在内的所有负载,将所有模型tokens全部按照DeepSeek-R1的定价(DeepSeek R1 的定价:$0.14 / 百万输入 tokens (缓存命中),$0.55 / 百万输入 tokens (缓存未命中),$2.19 / 百万输出 tokens)计算,理论上一天的总收入为5.62万美元,算下来成本利润率为545%。
高达545%的利润率意味着什么,又会给行业带来了怎样的影响?
对行业来说,DeepSeek在最新的文章中提到的56.3%缓存命中率(原文称,在 24 小时统计时段内,DeepSeek V3 和 R1都能实现输入 token 总数为 608B,其中 342B tokens(56.3%)命中 KVCache 硬盘缓存)是一项具有重要意义数据。
“虽然各家没有公布过相关数据,但超过一半的命中率在业内应该已是很高的水平。”
根据DeepSeek统计,按照这套“白天推理——晚上训练”的方案规划,在最近的24小时内,将DeepSeek V3和R1推理服务占用节点加到一起,任务繁忙的高峰期最多占用278个节点,平均占用226.75个节点(每个节点为8个英伟达H800 GPU)。
考虑到DeepSeek还有新模型项目及其他工作需要GPU,上述1800-2000张H800GPU(平均占用节点数乘以8个GPU),大概率已经用上了DeepSeek现阶段为DeepSeek V3与R1模型所能调用的“全部算力资源”。
此前按照行业观点,DeepSeek的创新突破在于,在有限资源的环境下,将效率提升到了极致,从而实现了模型的低成本开发。在上述一系列优化效率的基础之上,才有了545%的成本利润率。
据官方披露,DeepSeek-V3/R1推理系统的优化目标是:更大的吞吐,更低的延迟。
为了实现这两个目标,DeepSeek使用大规模跨节点专家并行(Expert Parallelism / EP)。首先EP使得batch size大大增加,从而提高GPU矩阵乘法的效率,提高吞吐。其次EP使得专家分散在不同的GPU上,每个 GPU 只需要计算很少的专家(因此更少的访存需求),从而降低延迟。
但EP同时也增加了系统的复杂性。复杂性主要体现在两个方面:
EP引入跨节点的传输。为了优化吞吐,需要设计合适的计算流程使得传输和计算可以同步进行。
EP涉及多个节点,因此天然需要Data Parallelism(DP),不同的DP之间需要进行负载均衡。
因此,DeepSeek介绍了如何使用EP增大batch size,如何隐藏传输的耗时,如何进行负载均衡。
大规模跨节点专家并行(Expert Parallelism / EP)
由于DeepSeek-V3/R1的专家数量众多,并且每层256个专家中仅激活其中8个。模型的高度稀疏性决定了必须采用很大的overall batch size,才能给每个专家提供足够的expert batch size,从而实现更大的吞吐、更低的延时。需要大规模跨节点专家并行(Expert Parallelism / EP)。
采用多机多卡间的专家并行策略来达到以下目的:
Prefill:路由专家EP32、MLA和共享专家DP32,一个部署单元是4节点,32个冗余路由专家,每张卡9个路由专家和1个共享专家。
Decode:路由专家EP144、MLA和共享专家DP144,一个部署单元是18 节点,32个冗余路由专家,每张卡2个路由专家和1个共享专家。
计算通信重叠
多机多卡的专家并行会引入比较大的通信开销,所以使用了双batch重叠来掩盖通信开销,提高整体吞吐。
对于prefill阶段,两个batch的计算和通信交错进行,一个batch在进行计算的时候可以去掩盖另一个batch的通信开销;
对于decode阶段,不同阶段的执行时间有所差别,所以把attention部分拆成了两个stage,共计5个stage的流水线来实现计算和通信的重叠。
尽可能地负载均衡
由于采用了很大规模的并行(包括数据并行和专家并行),如果某个GPU的计算或通信负载过重,将成为性能瓶颈,拖慢整个系统;同时其他GPU因为等待而空转,造成整体利用率下降。因此需要尽可能地为每个GPU分配均衡的计算负载、通信负载。
PrefillLoadBalancer
核心问题:不同数据并行(DP)实例上的请求个数、长度不同,导致core-attention计算量、dispatch发送量也不同。
优化目标:各GPU的计算量尽量相同(core-attention计算负载均衡)、输入的token数量也尽量相同(dispatch发送量负载均衡),避免部分GPU处理时间过长。
DecodeLoadBalancer
核心问题:不同数据并行(DP)实例上的请求数量、长度不同,导致core-attention计算量(与KVCache占用量相关)、dispatch发送量不同。
优化目标:各GPU的KVCache占用量尽量相同(core-attention计算负载均衡)、请求数量尽量相同(dispatch发送量负载均衡)。
Expert-ParallelLoadBalancer
核心问题:对于给定MoE模型,存在一些天然的高负载专家(expert),导致不同GPU的专家计算负载不均衡。
优化目标:每个GPU上的专家计算量均衡(即最小化所有GPU的dispatch接收量的最大值)。
线上系统的实际统计数据
DeepSeekV3和R1的所有服务均使用H800GPU,使用和训练一致的精度,即矩阵计算和dispatch传输采用和训练一致的FP8格式,core-attention计算和combine传输采用和训练一致的BF16,最大程度保证了服务效果。
另外,由于白天的服务负荷高,晚上的服务负荷低,因此实现了一套机制,在白天负荷高的时候,用所有节点部署推理服务。晚上负荷低的时候,减少推理节点,以用来做研究和训练。在最近的24小时里(北京时间2025/02/27 12:00至2025/02/28 12:00),DeepSeek-V3和R1推理服务占用节点总和,峰值占用为278个节点,平均占用226.75个节点(每个节点为8个H800GPU)。假定GPU租赁成本为2美金/小时,总成本为87072美元/天。
在24小时统计时段内,DeepSeek-V3和R1:
输入token总数为608B,其中342Btokens(56.3%)命中KVCache硬盘缓存。
输出token总数为168B。平均输出速率为20~22tps,平均每输出一个token的KVCache长度是4989。
平均每台H800的吞吐量为:对于prefill任务,输入吞吐约73.7ktokens/s(含缓存命中);对于decode任务,输出吞吐约14.8ktokens/s。
以上统计包括了网页、APP和API的所有负载。如果所有tokens全部按照DeepSeek-R1的定价计算,理论上一天的总收入为562027美元,成本利润率为545%。当然实际上没有这么多收入,因为V3的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-17
OpenAI发布o3与o4-mini,还开源两个项目
2025-04-17
OpenAI开源的Codex CLI是什么?
2025-04-17
社区供稿 | 3700 次预训练总结超参规律,开源海量实验,告别盲猜
2025-04-17
好用的开源Agent框架概览与比较分析
2025-04-17
OpenAI开源超火Agent,5小时破5000颗星,霸榜Github
2025-04-17
复刻小智AI,ESP32-S3搭建Arduino+ESP-SR+ESP-TTS开发环境踩坑记录
2025-04-17
openai-python v1.74.0 震撼发布!GPT-4.1 家族来袭,开发者必看更新解析!
2025-04-16
吩咐 AI 帮我一键运行万星 Github 项目
2025-01-01
2024-07-25
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-06-12
2024-07-11
2024-08-13
2024-12-26
2025-04-17
2025-04-15
2025-04-13
2025-04-10
2025-04-07
2025-04-03
2025-04-03
2025-04-03