AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


CPU、GPU 和 TPU 之间有什么区别
发布日期:2024-12-23 12:24:59 浏览次数: 1532 来源:跳动的数据


什么是 CPU、GPU 和 TPU

它们都是用于计算任务的处理器芯片。可以把你的大脑想象成一台计算机,能够完成诸如阅读书籍或解决数学问题的任务。每一项活动都类似于一个计算任务。例如,当你用手机拍照、发送短信或打开应用程序时,你手机的大脑、处理器,就在完成这些计算任务。

这些缩写分别代表什么

尽管 CPU、GPU 和 TPU 都是处理器,但它们的专业化程度逐步提高。CPU 是 Central Processing Unit(中央处理单元)的缩写。这些是通用芯片,可以处理各种不同的任务。类似于你的大脑,如果 CPU 并不擅长某项任务,可能需要更长的时间来完成。

接着是 GPU,即 Graphics Processing Unit(图形处理单元)。GPU 已经成为加速计算任务的主力,从图形渲染到 AI 工作负载。它们属于一种 ASIC(Application-Specific Integrated Circuit,应用专用集成电路)。集成电路通常由硅制成,因此你可能听到人们将芯片称为“硅片”——它们其实是同一种东西(是的,“硅谷”这个名字就来源于此!)。简单来说,ASIC 是为特定用途设计的。

而 TPU,即 Tensor Processing Unit(张量处理单元),是 Google 自己设计的 ASIC。我们从零开始设计 TPU,使其专注于运行基于 AI 的计算任务,比 CPU 和 GPU 更加专业化。TPU 已成为 Google 一些最受欢迎的 AI 服务的核心,包括搜索、YouTube 和 DeepMind 的大型语言模型。

明白了,所以这些芯片让我们的设备能够正常工作。CPU、GPU 和 TPU 分别在哪里可以找到?

CPU 和 GPU 存在于你每天可能使用的非常熟悉的设备中:几乎每部智能手机都有 CPU,它们也出现在笔记本电脑等个人计算设备中。GPU 则常见于高端游戏系统或某些台式设备中。TPU 只存在于 Google 的数据中心中:这些数据中心是类似仓库的建筑,里面有一排排的 TPU,它们全天候运行,以支持 Google 和我们的云客户的 AI 服务在全球范围内运转。

为什么创建 TPU

CPU 诞生于 1950 年代末,GPU 则在 1990 年代末出现。而在 Google,我们大约在 10 年前开始考虑 TPU。当时,我们的语音识别服务质量显著提升,我们意识到,如果每位用户每天“对 Google 说话”3 分钟,我们需要将数据中心的计算机数量翻倍。我们知道需要一种比当时市面上现成硬件更高效的解决方案——并且每块芯片需要提供更多的处理能力。所以,我们决定自己设计!

这里的 “T” 代表 Tensor,对吧?为什么?

没错——“Tensor”(张量)是用于机器学习的数据结构的通用名称。简单来说,在底层,有大量数学运算在支持 AI 任务的实现。在我们最新的 TPU——Trillium 中,我们提高了计算能力:与上一代 TPU v5e 相比,Trillium 每块芯片的峰值计算性能提升了 4.7 倍。

这具体意味着什么

这基本上意味着 Trillium 能以比上一代快 4.7 倍的速度完成复杂数学计算。不仅速度更快,它还能处理更大、更复杂的工作负载。

Trillium 的另一个优点是,它是我们迄今为止最可持续的 TPU,它比上一代 TPU 的能效提高了 67%。随着对 AI 的需求持续飙升,行业需要以可持续的方式扩大基础设施规模。Trillium 能以更少的能耗完成相同的工作。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询