支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


买最贵的GPU,挨最毒的打!

发布日期:2025-04-15 11:58:17 浏览次数: 1541 作者:特大号
推荐语

AI项目中存储的重要性被严重低估,老季的教训告诉你,最贵的GPU也可能因为存储瓶颈而失败。

核心内容:
1. 老季与行业龙头合作,忽视存储导致项目失败
2. 数据处理环节对存储的高要求,传统存储的不足
3. 大模型项目中,存储与计算同样重要,老季的复盘和建议

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

最近,某集成商操盘手老季郁闷透顶。搞了个AI项目,尾款还没结,锅全被他身上。

老季在圈里号称季牛牛,搞项目从没失过手,可这一次,搞砸了。

这锅是这样的

一个老客户,某行业龙头,属于那种“混熟了”的类型,常年从老季公司采购服务器、存储、交换机啥的,处得还不错。

前阵子,他们内部决定搞行业私有大模型。

跟老季提了需求:之前的机房还在用,直接上一批GPU服务器就行,其他的都利旧。

虽然客户说只买GPU服务器,但也算是一笔豪单,半年业绩有谱了。
毕竟客户说了:市面上能买到的GPU,他要最好的。

不过做方案的时候,公司技术总监给老季提了个醒:大模型项目特殊,其他设备利旧的话可能会有坑——

于是,老季去找客户加预算。

客户听了立马摆手:“你就别再忽悠我买设备了,把GPU服务器配好就行。

老季想了想,客户说的也有道理。

于是就没再坚持,按照客户的需求,继续推进。

结果,设备到货,上线,一跑模型。

所有人都疯了!

模型训练一跑就卡死,推理更别提了,延迟高得吓人,吞吐更不用说了,TPS竟然只有几百…

为什么数据加载这么慢,为什么训练总卡死,为什么Checkpoint保存要等半天?为什么推理延迟这么大?

双方技术查了几圈,查硬件、查软件、查框架…

最终跟技术总监担心的一样:存储拖了后腿。

客户脸都黑了,开始骂老季:“你们怎么不提醒我存储也可能是瓶颈?白瞎我这么好的GPU了?”

老季有苦难言,心说:领导,我提醒你了呀。

可是现在,这锅,只能自己背。


复盘

最后,公司老板出面协调,跟客户一起开个项目复盘会,大家一起来解决问题。

为了让老季长点记性,这个复盘会让他主讲。开会那天,老季PPT投上去,大大的一行字

一开场,老季就抛出了一个甲方最关注的点↓

显然,不是!

但当下很多大模型项目却把GPU当成充要条件,却忽略了另一大基础设施:存储


很多人还不知道

大模型的训练和推理,其实本质就是→海量数据处理的过程。
我们先了解一下,大模型训推过程中,是如何处理数据的↓


这五个环节,是计算与存储高度耦合的过程,也被称为:半计算半存储型任务。
存储万万不能拖后腿,否则GPU再强都白搭。

比如,数据预处理和加载环节↓

原始数据采集量动不动就是PB级,要求存储高并发读取,一秒要加载几GB碎片小文件,还得边读边处理(ETL),传统存储跟不上节奏。

比如,Checkpoint加载与保存环节

训练中断是家常便饭,关键是能基于Checkpoint快速恢复,不用从头再来。

此时,需要高速读写、近GPU存储、纳秒级延迟,而传统存储写入速度慢,导致断点恢复慢。

比如,推理中的RAG环节
推理前需要快速对知识库完成向量或语义检索,查得慢,回答就会慢半拍
这需要低延迟向量检索、高QPS、小文件快速读取能力。
而这一切,对于传统存储来讲,都太吃力了

老季正讲着,甲方的技术人员举手提出了问题↓

老季暗笑,正中下怀啊。

“大模型时代,存储不能只是‘仓库’,必须升级成一个——智慧物流系统,能调度、会加速、搬得快。AI场景讲究的是数据流动性,不是堆硬盘。”

看这听众们还一脸茫然,老季不再卖关子,开始亮剑——
“以前我也走过弯路,被毒打了,现在终于知道怎么选了”。
曙光重塑的AI存储架构,就好比“三层智能物流系统”。
就是完全匹配大模型训推不同阶段对数据的不同要求,用三级架构分而治之,该海量的海量,该高速的高速,该直通的直通。
为什么要这么干呢?
大家看看大模型训练推理过程中不同数流转路线就秒懂了。这种架构设计,可以保证每种操作,都按照最优的快递路线,从而获得最好的投递结果。

现场的气氛热烈起来

讲到这儿,气氛热了,甲方团队开始七嘴八舌的问问题。

这是个好问题!但老季没立即回答,他顿了顿,看向甲方领导。

甲方领导眉头紧锁,清了清嗓子,问出了第一个问题↓

那必然选曙光ParaStor F9000系列!

这是一款干大活的AI存储,特别适合:大模型训练、高并发推理。

看性能参数,你就知道这是一款为大模型而生,真正扛AI重活的主力军。
ParaStor F9000性能实在太优秀了,直接卷哭国内外同行!

为啥F9000这么猛?

核心就在于它不是拼某个指标,而是真实AI场景进行过深度适配,搞了一个AI存储三级协同方案。

也就是说,F9000真正把前面所说的「三级物流体系」给落地了。

芯片级协同:网络(IB / RoCE)、CPU、内存和NVMe闪存做了全对称均衡设计,每条IO走的都是:最优路径。
软硬件协同:首创“数据编排技术”,将内存、网络、NVMe按照CPU核均分,实现带宽/IOPS/时延按需可调。
AI应用协同:关键数据直通GPU显存、向量检索与KV Cache专项加速、BurstBuffer本地加速技术等。

这时候,甲方负责这个项目的技术主管抛出了个新问题↓

老季点点头,当然,用户收益有三点:

以存提算,能让GPU满负荷运转,利用率直接翻倍

存储效率上来了,训练数据秒级加载、Checkpoint分钟级恢复,训练周期大幅缩短。

以存代算,为GPU分担计算任务

比如在KV Cache、RAG检索阶段,GPU只管“输出”,存储来“记忆+查资料”,大大提升了推理速度。

以存降本,就是存储能帮客户省钱>
以万卡集群为例,每花1块钱在存储,至少能换回10块钱的GPU算力收益,因为曙光AI全闪存储能GPU利用率提升1倍+。

老季的话音刚落,甲方领导又提出了第二个问题。

老季一看,领导真是会问问题,直接给他安排上:
曙光 FlashNexus 集中式全闪系列!
为啥?这款是真正意义上的全球NO.1
在今年2月25日的SPC-1 V3测试榜单上,它直接干到了
超3000万 IOPS 的恐怖成绩
成为全球首个突破亿级IOPS的集中式全闪系统!
强势登顶全球第一!
落到中大型AI推理场景里↓
依托亿级 IOPS 和毫秒级低延时可将 token 生成延迟降低高达 80%,整体效率提升超过 50%。
讲完了“干大活的 F9000”、“极速飞行的 FlashNexus”,老季正要歇口气。
甲方领导又开始发问了——

老季早有准备——

那必然选曙光ParaStor S6000系列!

现在大模型需要的数据存储容量越来也大,动不动就是几百TB、几PB,要存模型参数、训练日志、版本文件、推理数据、清洗数据、原始数据…

老季推荐这款存储,理由就就两点:

首先,存得多,成本低

单柜支持1.44PB超大容量,24TB× 60盘位,4U空间就能搞定,容量密度提升 70%,省机房、省电、更省钱。

第二,有策略、不乱存

S6000能实现【冷热分层+智能调度】:热数据自动放到 NVMe,读写快;冷数据全进 SATA/SAS,存得省。

这些都是通过智能调度,实现冷热数据无感流动。

几个回合下来,甲方领导听的津津有味,紧锁的眉头也展开了,笑呵呵地又问了一个问题。

老季点点头,确实!这年头,大家不仅要存储性能和容量,还越来越关心数据管理。

以前这些问题,基本靠猜。

现在曙光存储提供一张图,让你纵观全局数据流动!

每一步的数据流动路径、存储位置、冷热分布,全都一目了然。


就这样,项目复盘会在剑拔弩张中开始,却在谈笑风生中结束。
最终,客户认识到原有存储的问题,果断追加了预算,并单一来源采购了曙光AI存储。
半个月后,项目顺利上线,用老季的话讲:体验爽到飞起,终于扬眉吐气!

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询