AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Meta:AI基础设施的未来(演讲/PPT)
发布日期:2024-08-26 13:09:01 浏览次数: 1698


Aparna Ramani
Meta工程副总裁

在2024年AI Infra @Scale会议上发表开幕主旨演讲

她负责AI基础设施、数据基础设施和开发者基础设施。

核心观点

  • AI的发展历程与现状:AI经历了从20世纪50年代图灵提出“机器是否能思考”的问题,到“深蓝”击败国际象棋冠军,再到如今大规模语言模型(如GPT)的持续发展。这一历程展示了AI技术从手工编程到深度学习的转变,并凸显了模型规模和计算资源的迅猛增长。
  • AI与基础设施的共生关系:AI的进步与基础设施的演进密不可分。计算能力、分布式系统和大规模数据处理能力推动了AI的发展,而AI的需求又反过来推动了基础设施的创新与优化。
  • 数据中心演变与GPU的重要性:GPU在AI模型训练中的关键作用日益显著。特别是在ChatGPT发布后,GPU使用量急剧增加。Meta的数据中心正大规模增加GPU部署,以应对庞大的AI工作负载。
  • 未来挑战(数据、计算和算法):
    • 数据:训练模型所需的数据量巨大且不断增长,数据可能成为瓶颈。未来可能需要依赖合成数据和更高效的数据处理技术。
    • 计算:随着模型训练需求以每年四倍的速度增长,GPU供应、能耗、故障处理等方面的挑战日益严峻。Meta正在开发自有芯片以应对这些挑战。
    • 算法:研究在快速发展,模型规模仍是性能的关键因素之一。对于是否需要借鉴人类学习机制、发展世界模型等观点,也引发了广泛讨论。
  • 通用智能的实现:对于通用智能的实现时间尚无定论,但考虑到基础设施的复杂性,只有少数实体具备推动这一目标的能力。

-----

本年度AI成为科技行业焦点,伴随着更大更强的模型、新型AI驱动应用,以及与会者们所关注的大量GPU。在深入探讨当前状况前,让我们回顾历史,以全面理解当下。

AI的历史可追溯至20世纪50年代,艾伦·图灵(Alan Turing)首次提出机器是否能思考的问题。早期热潮后,AI经历了漫长的"寒冬"。90年代末,情况好转,许多人将"AI寒冬"的结束归功于"深蓝"(Deep Blue)。1997年,IBM的"深蓝"在国际象棋比赛中击败世界冠军加里·卡斯帕罗夫(Garry Kasparov)。"深蓝"由近500个定制芯片驱动,每秒可处理约2亿步棋。当时被视为未来,实际上它只是手工编程计算机智能的巅峰。

随后出现的是神经网络。Yann LeCun在80年代提出的卷积神经网络(CNN,Convolutional Neural Network)经历了多次演变。1998年,LeNet-5 CNN在超过6万个邮政编码样本中以99%以上的准确率识别手写邮政编码。CNN训练困难,一度使循环神经网络(RNN,Recurrent Neural Network)更受青睐。2012年,AlexNet的出现被称为AI的"大爆炸"时刻。AlexNet是一个规模远大于LeNet-5的CNN,在当时最大的图像数据集之一ImageNet上训练,包含超过1400万张图像,仅使用两块GPU。AlexNet大幅提升了图像标注精度,并证明了CNN可并行化训练。

五年后,Google发表《Attention Is All You Need》,引入Transformer模型概念,推动了大规模语言模型的创新:Google的BERT,随后是GPT。2021年,扩散模型崭露头角,DALL·E展示了惊人的文本生成图像能力。2022年11月,ChatGPT将这些模型突破带入公众视野。2023年,Meta开放LLaMA 2供研究和商用。随后我们推出LLaMA 3,包括700亿和80亿参数模型,上周发布了450亿参数的LLaMA 3.1,这是首个前沿级开源AI模型。这些发布引发了行业创新浪潮,并围绕LLaMA建立了完整生态系统。

AlexNet与GPT之间的十年与当前创新速度和强度形成有趣对比。许多与会者共同推动了AI的深入发展。作为AI Infra @Scale活动,我想讨论模型创新与基础设施的联系。AI研究与基础设施演进始终保持共生关系。计算能力、分布式系统和大规模数据处理的可用性促成了当今AI领域的创新。同样,AI的发展路线也塑造了基础设施的演进。

简述数据中心计算历史:几十年来,数据中心一直由x86架构CPU主导。然而,GPU在浮点运算方面优势明显,而这正是模型学习的核心。2012年前,数据中心GPU数量几乎可忽略。2017年开始出现大型研究集群。Meta也建立了首个研究级超级计算机,数据中心GPU数量随之增长。

ChatGPT 2022年发布后,GPU使用量呈爆炸式增长。这种转变是根本性的,因此有人说:"今天的计算机不再是PC,而是数据中心。"现在,单个训练任务可能部署数万台GPU集群,而整个数据中心的GPU数量甚至达到数十万个。

在Meta数据中心,今年年底我们将拥有60万台GPU设备。这是在现有CPU基础设施之外的额外投入,使我们能运行多个并行工作负载。

自"深蓝"和AlexNet早期以来,我们的行业和社会雄心已大幅提升。如今,我们讨论的是通用智能,即机器能够完成任务,甚至复杂任务,达到或超越人类水平。无论你持何种观点,无可否认我们仍处于这一旅程的早期阶段,还有很多需要学习。

让我们讨论扩展这些模型以实现宏伟目标时面临的挑战。当前模型基于三个输入在可预测地改进:数据、计算和算法。

首先是数据。训练这些模型所需的数据量巨大。每一代模型训练都会添加更多数据,达到数万亿token。例如,LLaMA 3.1的训练使用了超过15万亿个token。

在基础设施方面,我们在数据加载、训练准备和从数据中提取高质量信号方面取得了重大进展。我们持续改进数据管道和数据仓库,以适应AI的扩展。但这里存在更大、更深层次的挑战。

人们越来越认识到,数据可能很快成为瓶颈,甚至在未来几年内可能发生。对于何时会耗尽高质量人类生成数据,有各种预测。这是难以想象的情景。

作为一个社区和行业,我们该怎么做?我们必须在数据本身、数据处理和数据质量上实现重大效率提升。整个行业也在努力生成合成数据,即模型生成自身数据,然后进行自我评估。这确实是非常令人兴奋的工作。

第二个主要输入是计算。这与在座每个人息息相关。保守估计显示,行业内大型模型的训练需求每年增长约四倍。假设这种扩展趋势持续,我们仍在努力解决一系列基础设施挑战。

首先是购买或生产大量GPU。这些芯片价格昂贵,且制造商很少。约一年前,整个行业经历了严重的供应链危机,大家都在抢购GPU。

我们曾开玩笑说,在供应链危机期间购买GPU就像疫情高峰期买厕纸一样困难。那么,我们为降低这一风险做了什么?

Meta和其他一些公司正在开发自有定制芯片。自有芯片的巨大优势是可针对我们的工作负载优化,从而在成本和性能上获得显著优势。

此外,大型集群的一个重大瓶颈是能耗。GPU的能效极低,每个GPU消耗约0.5-1千瓦电力,而人脑总能耗仅约25瓦。能效差距巨大,除非我们在能源领域实现真正的创新,否则能源将成为扩展能力的瓶颈。

训练过程中也面临扩展挑战。GPU在训练中必须互联并行计算。不幸的是,单个GPU故障会导致整个训练任务中断,因为模型不再处于一致状态。

目前,每次出现故障时,我们都修复问题,重新启动训练,然后继续。停止和重启相当痛苦,随着GPU数量增加,故障可能性也会增加,使问题更加严重。

在某个临界点,故障数量可能多到压倒性地步,使我们在解决这些故障上花费过多时间,几乎无法完成一次训练运行。

对此,整个行业都在关注和投资。我们致力于缩短故障检测时间、加快重启速度,甚至研究新范式,如异步训练等。这将是一个值得关注的激动人心领域。

除此之外,还有许多挑战等待解决。网络需要彻底改造,因为我们处理大规模网络,GPU之间需要互联和通信。现有协议已无法扩展。此外,这些互联GPU温度极高,现有数据中心冷却技术无法应对,因此我们正为数据中心发明新型冷却技术。我们面临的工程挑战清单令人惊叹。

讨论完数据和计算,现在谈谈模型算法本身。研究在此快速发展,基础设施方面的任务是确保尽快将研究突破应用于生产和社区。关于算法本身,有几种观点值得关注,以了解哪些因素可能导致通用智能的实现。

首先是"规模至上"(scale is everything)观点。在语言模型中,特别是经过良好训练时,模型规模仍是性能的最大预测因素。目前存在激烈争论:这些在下一个token预测上越来越出色的模型,是否能在理解、推理、观察概念和得出结论方面取得突破。它们是否能应用推理和因果关系,以及所有人类智能共有的特性,还有待观察。

第二种观点认为,模型需要对世界有更扎实的理解——这种理解来自探索、实验和互动,类似儿童与世界互动的方式。因此,有一种假设认为我们需要世界模型(world models)来进行前向模拟,提高规划和准确性。这一理念驱动了我们实验室的部分研究工作,我们团队正在研究联合嵌入预测架构(JEPA,Joint Embedding Predictive Architectures)。

机器学习的效率远低于人类学习。机器可获得新信息,但需要数十亿个参数和大量相似信息的曝光,而人类可以学习某个概念,立即获得洞察,并用这些洞察做决策。第三种假设认为,我们应从人脑中寻找新模型架构的线索。

在所有这些讨论中,你可能会问:什么时候能实现通用智能?我不会对是否需要两年还是二十年发表看法。但我目前所知和相信的是:考虑到支持这种基础模型创新所需的规模和大小,全球能做到这一点的实体非常有限。

我们看到两种不同方法:封闭方法和开放方法。Meta公开宣示采用开放方法。一般而言,开放方法有助于分散创新,防止权力集中在少数甚至单一实体手中。我认为这相当值得赞赏。

在模型方面,我们致力于构建与顶尖专有模型竞争的模型。我预期,只要条件允许,我们将继续开源这些模型。

我们有开源底层基础设施的悠久历史,无论是开源数据中心设计的Open Compute Project,还是用于构建用户界面的React。更贴近我们的是PyTorch,目前最主流的机器学习开发库。我们将继续在这些基础上进行社区建设。

对技术人员来说,这是绝佳时机。接下来几年将改变我们的工作和生活方式。如前所述,没有任何单一公司或研究团队对迄今为止的所有创新负责。进展如此之快,部分原因是我们齐心协力,相互借鉴。一篇论文的发布、库的发布、新开源模型的宣布,这就是@Scale的精神。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询