支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


深度技术解读!DeepSeek理论成本利润率545% ! 2025

发布日期:2025-03-03 06:39:35 浏览次数: 1989 作者:AI云原生智能算力架构
推荐语

深度技术解读揭示DeepSeek理论成本利润率之高,引领行业变革。

核心内容:
1. DeepSeek V3/R1推理系统成本和利润率的详细披露
2. Token处理、缓存命中率对成本影响的深度分析
3. 高利润率对AI行业的潜在影响和商业模式革新

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

当市场以为DeepSeek的开源周内容发布完毕之后,3月1日,DeepSeek宣布了“One More Thing”,突然揭秘V3/R1推理系統,公开了大规模部署成本和收益。

根据《DeepSeek-V3/R1推理系统概览》的文章,按DeepSeek测算,假定GPU租赁成本为2美元/小时,总成本为8.7万美元/天。如果统计包括网页、App和API在内的所有负载,将所有模型tokens全部按照DeepSeek-R1的定价(DeepSeek R1 的定价:$0.14 / 百万输入 tokens (缓存命中),$0.55 / 百万输入 tokens (缓存未命中),$2.19 / 百万输出 tokens)计算,理论上一天的总收入为5.62万美元,算下来成本利润率为545%。

高达545%的利润率意味着什么,又会给行业带来了怎样的影响?

在自然语言处理中,Token是语言文本被分割后的基本单位,每个用户向AI提问并获取回答,问题及答案的文本长度对应数量不等的Token。AI处理每个Token都需要消耗算力。此外,还存在命中缓存与否的情况,命中缓存指用户向AI提问涉及的相关数据已存在于缓存之中,模型可直接调用,无需重新计算或从数据库检索,节省了算力、时间及存储资源,成本更低,若没能命中,则需要消耗更多算力等资源,成本更高。
目前,按Token计价收费是AI公司的主要商业模式。命中缓存相对价格较低,未命中则收费更高。

对行业来说,DeepSeek在最新的文章中提到的56.3%缓存命中率(原文称,在 24 小时统计时段内,DeepSeek V3 和 R1都能实现输入 token 总数为 608B,其中 342B tokens(56.3%)命中 KVCache 硬盘缓存)是一项具有重要意义数据。

“虽然各家没有公布过相关数据,但超过一半的命中率在业内应该已是很高的水平。”

像在DeepSeek所开发的6710亿参数超大模型上,几亿用户提问时所写的文本多多少少存在差异,在这种前提下能够实现高中率,说明团队在模型整体优化上做了很多工作。
据DeepSeek团队介绍,V3、R1推理系统的优化目标就是追求“更大的吞吐,更低的延迟。”
基于DeepSeek采取的混合专家模型核心架构(MOE),超大模型由众多规模较小的专家模型组成,并承担不同的分工。通俗用人类世界的团队合作来解释其中所需要的调度工作,如果一个团队要将各个领域的专家集合到一起来攻克某项任务,就需要事先把整体任务拆分成多个流程环节的任务,再按照分配给不同领域的专家,让他们每个人都发挥专业技能解决问题,最后汇总结论。
DeepSeek在文中写道,由于DeepSeek-V3 / R1的专家数量众多,并且按照最初的设计规则,每层256个专家在实际运行中仅激活其中8个。要实现团队的“大吞吐,低延迟”的优化目标,就需要做到短时间处理大量任务时“高效调用”每个专家,也就是DeepSeek在文中提到的“大规模跨节点专家并行(Expert Parallelism / EP)”。
“这是一项难度极大的平衡工作,如果模型优化分配上做不好,就会使得一个6000多亿参数的超大模型,每次可能只有8个或几个专家在实际运行,而且如果某一个没有运行完,剩下的所有专家可能在等待。等待则通常又意味着计算资源的浪费。在DeepSeek开源前,混合专家模型的平衡设计对许多AI模型大厂都是尚未攻克的难题。
此外,据DeepSeek介绍,另外,由于白天用户访问量大、服务负荷高,晚上的服务负荷低,团队实现了一套机制,在白天负荷高的时候,利用所有模型节点部署推理服务。晚上负荷低的时候,减少推理节点,以用来做研究和训练。

根据DeepSeek统计,按照这套“白天推理——晚上训练”的方案规划,在最近的24小时内,将DeepSeek V3和R1推理服务占用节点加到一起,任务繁忙的高峰期最多占用278个节点,平均占用226.75个节点(每个节点为8个英伟达H800 GPU)。

考虑到DeepSeek还有新模型项目及其他工作需要GPU,上述1800-2000张H800GPU(平均占用节点数乘以8个GPU),大概率已经用上了DeepSeek现阶段为DeepSeek V3与R1模型所能调用的“全部算力资源”。

此前按照行业观点,DeepSeek的创新突破在于,在有限资源的环境下,将效率提升到了极致,从而实现了模型的低成本开发。在上述一系列优化效率的基础之上,才有了545%的成本利润率。

但DeepSeek也强调,545%只是一个理论值,实际运行时没“有这么多收入”。因为 V3 的定价更低,同时收费服务只占一部分,另外夜间还另有折扣。
此前,DeepSeek在同类模型厂商中就以“AI拼多多”的低价标签备受关注。
去年推出V2模型时,DeepSeek就曾在4月首次将API调用价格降至输入1元/百万tokens、输出2元/百万tokens,引发了豆包、Kimi、文心一言等厂商的跟进,带动了第一波模型价格战。最新的V3模型服务定价仅为OpenAI同类模型4o的1/15,R1模型的价格也远低于同行。
此次公布出的高利润率也让外界看清了DeepSeek降价的“底牌”。
在此之前,业内一度热议“DeepSeek模型API定价过低是否会带来巨大亏损”,DeepSeek前研究员罗福莉去年5月在个人知乎上否认了这一点。据她透露,目前以DeepSeek现在的定价,大规模服提供服务,不亏本,利润率超50%。DeepSeek创始人梁文峰也在接受36氪媒体专访时提到,公司的定价策略是“原则上不亏本销售,也不追求过高利润。目前的定价仅在成本之上保留了一定的利润空间。”
目前,业内宣布接入部署“满血版”DeepSeek R1模型的厂商大多以单机(8张GPU的服务器)、双机这一类小规模设备为主。据记者了解,“四机目前是业内考验公司技术能力的一道分水岭”。而随着服务器台数越多,规模化部署调度和优化难度越大,DeepSeek团队所实现的300多台服务器部署工程对团队技术能力要求更是急剧上升。
眼下,虽然545%的成本利润率是DeepSeek基于大规模部署测算的一个理论值,实际的利润水平官方并未公布,但依然让行业开始看到了“赚钱的希望”。
DeepSeek在公布利润率的同时也将模型优化方法开源,行业会更加积极学习这套优化方法部署DeepSeek。虽然对绝大多数公司来说,“知道”和“做到”是两件事,将同样优化方法落到实际会遇到各种新问题,但整个行业会在这方面进行更多尝试。

据官方披露,DeepSeek-V3/R1推理系统的优化目标是:更大的吞吐,更低的延迟。

为了实现这两个目标,DeepSeek使用大规模跨节点专家并行(Expert Parallelism / EP)。首先EP使得batch size大大增加,从而提高GPU矩阵乘法的效率,提高吞吐。其次EP使得专家分散在不同的GPU上,每个 GPU 只需要计算很少的专家(因此更少的访存需求),从而降低延迟。

但EP同时也增加了系统的复杂性。复杂性主要体现在两个方面:

EP引入跨节点的传输。为了优化吞吐,需要设计合适的计算流程使得传输和计算可以同步进行。

EP涉及多个节点,因此天然需要Data Parallelism(DP),不同的DP之间需要进行负载均衡。

因此,DeepSeek介绍了如何使用EP增大batch size,如何隐藏传输的耗时,如何进行负载均衡。

大规模跨节点专家并行(Expert Parallelism / EP)

由于DeepSeek-V3/R1的专家数量众多,并且每层256个专家中仅激活其中8个。模型的高度稀疏性决定了必须采用很大的overall batch size,才能给每个专家提供足够的expert batch size,从而实现更大的吞吐、更低的延时。需要大规模跨节点专家并行(Expert Parallelism / EP)。

采用多机多卡间的专家并行策略来达到以下目的:

Prefill:路由专家EP32、MLA和共享专家DP32,一个部署单元是4节点,32个冗余路由专家,每张卡9个路由专家和1个共享专家。

Decode:路由专家EP144、MLA和共享专家DP144,一个部署单元是18 节点,32个冗余路由专家,每张卡2个路由专家和1个共享专家。

计算通信重叠


多机多卡的专家并行会引入比较大的通信开销,所以使用了双batch重叠来掩盖通信开销,提高整体吞吐。


对于prefill阶段,两个batch的计算和通信交错进行,一个batch在进行计算的时候可以去掩盖另一个batch的通信开销;


图片

对于decode阶段,不同阶段的执行时间有所差别,所以把attention部分拆成了两个stage,共计5个stage的流水线来实现计算和通信的重叠。

图片

尽可能地负载均衡


由于采用了很大规模的并行(包括数据并行和专家并行),如果某个GPU的计算或通信负载过重,将成为性能瓶颈,拖慢整个系统;同时其他GPU因为等待而空转,造成整体利用率下降。因此需要尽可能地为每个GPU分配均衡的计算负载、通信负载。


  1. PrefillLoadBalancer



    1. 核心问题:不同数据并行(DP)实例上的请求个数、长度不同,导致core-attention计算量、dispatch发送量也不同。


    2. 优化目标:各GPU的计算量尽量相同(core-attention计算负载均衡)、输入的token数量也尽量相同(dispatch发送量负载均衡),避免部分GPU处理时间过长。



  2. DecodeLoadBalancer


    1. 核心问题:不同数据并行(DP)实例上的请求数量、长度不同,导致core-attention计算量(与KVCache占用量相关)、dispatch发送量不同。


    2. 优化目标:各GPU的KVCache占用量尽量相同(core-attention计算负载均衡)、请求数量尽量相同(dispatch发送量负载均衡)。



  3. Expert-ParallelLoadBalancer


    1. 核心问题:对于给定MoE模型,存在一些天然的高负载专家(expert),导致不同GPU的专家计算负载不均衡。


    2. 优化目标:每个GPU上的专家计算量均衡(即最小化所有GPU的dispatch接收量的最大值)。

图片

线上系统的实际统计数据

DeepSeekV3和R1的所有服务均使用H800GPU,使用和训练一致的精度,即矩阵计算和dispatch传输采用和训练一致的FP8格式,core-attention计算和combine传输采用和训练一致的BF16,最大程度保证了服务效果。


另外,由于白天的服务负荷高,晚上的服务负荷低,因此实现了一套机制,在白天负荷高的时候,用所有节点部署推理服务。晚上负荷低的时候,减少推理节点,以用来做研究和训练。在最近的24小时里(北京时间2025/02/27 12:00至2025/02/28 12:00),DeepSeek-V3和R1推理服务占用节点总和,峰值占用为278个节点,平均占用226.75个节点(每个节点为8个H800GPU)假定GPU租赁成本为2美金/小时,总成本为87072美元/天。

图片

在24小时统计时段内,DeepSeek-V3和R1:

输入token总数为608B,其中342Btokens(56.3%)命中KVCache硬盘缓存。

输出token总数为168B。平均输出速率为20~22tps,平均每输出一个token的KVCache长度是4989。

平均每台H800的吞吐量为:对于prefill任务,输入吞吐约73.7ktokens/s(含缓存命中);对于decode任务,输出吞吐约14.8ktokens/s。

以上统计包括了网页、APP和API的所有负载。如果所有tokens全部按照DeepSeek-R1的定价计算,理论上一天的总收入为562027美元,成本利润率为545%。当然实际上没有这么多收入,因为V3的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询