微信扫码
添加专属顾问
我要投稿
深入探索HBM技术如何成为GPU的最强辅助,实现高性能计算的飞跃。核心内容:1. HBM技术的起源和发展,及与传统内存技术的比较2. HBM在GPU中的具体应用案例和性能表现3. HBM技术的迭代方向和市场主导者分析
目前主流 AI 训练芯片都使用 HBM,一颗 GPU 配多颗 HBM。以英伟达最新发布的H200举例,改GPU搭载了6个美光HBM3E 24GB高速显存,按道理来说,H200的内存容量应该是24*6=144GB,内存带宽应该是1.2*6=7.2TB/s,但英伟达官网发布的参数显存只有141GB,并不是整数,显存带宽也只有4.8TB/s,这是出于量产原因,英伟达保留了一小部分作为冗余,以提高良品率。
HBM市场主要由三大存储巨头所主导:
SK海力士:作为HBM技术的主要开发者之一,SK海力士在HBM领域占据领先地位。该公司不仅参与了HBM的早期开发,还持续推动技术的迭代,如HBM2、HBM2E到HBM3等。SK海力士在HBM技术上的创新和量产能力,使其成为伟达AI芯片HBM的主要供应商,份额最高。
三星电子:三星电子是全球领先的半导体公司之一,在HBM技术方面也具有强大的研发和生产能力。三星电子不仅在HBM的研发上投入巨大,还积极扩大产能以满足市场需求。三星电子在HBM技术上的进展,包括开发更高密度和更大容量的产品,对提升其在高性能计算和AI领域的竞争力起到了关键作用。三星着重满足其他云端服务业者的订单,在客户加单下,预计在 HBM3 与海力士的市占率差距会大幅缩小,2023~2024 年三星和海力士市占率预估相当,合计拥 HBM 市场约 95%的市占率。
美光科技:美光因技术路线判断失误在HBM市场份额比较低,在追赶中。虽然相比SK海力士和三星电子较晚进入HBM市场,但美光通过直接从HBM3E开始着手,并迅速提升技术实力,对现有市场格局构成了挑战,英伟达在H200中使用美光是对其非常大的认可。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-13
Dia,一场关于 AI 浏览器未来的预演
2025-04-13
案例分享: 用MCP打造旅行AI助手,搞定印尼火山旅⾏规划(内附安装教程)
2025-04-13
H20 141G版本是怎么来的
2025-04-13
AI与自动化实战:n8n、Dify、Coze哪个更适合我们?
2025-04-12
Mac mini 跑 DeepSeek R1 及 QwQ-32B模型实测报告
2025-04-12
同等价位window主机 VS mac Studio,AI推理谁更强
2025-04-12
人工智能:AI大模型在智慧港口和航运领域的应用
2025-04-11
经验分享:从买DeepSeek一体机到落地应用场景,有多远的距离?
2024-03-30
2024-05-09
2024-07-07
2024-07-23
2025-02-12
2024-07-01
2024-06-23
2024-06-24
2024-10-20
2024-06-08
2025-04-13
2025-04-11
2025-04-03
2025-03-30
2025-03-28
2025-03-26
2025-03-13
2025-03-12