AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


沃顿商学院AI研讨会:AI对全球经济格局、企业战略和就业市场的多维度影响
发布日期:2024-10-06 11:54:52 浏览次数: 1722 来源:AI深度研究员



——通用技术有三个特点:它具有广泛性,能够随着时间推移得到改进,并能激发互补的创新

——AI通过捕捉顶尖人才的隐性知识,缩小了技能差距。它从海量数据中学习最佳实践,并将这些洞见传授给普通员工,从而提升整体效能

——AI解决问题能力精准,却超出人类理解范畴。它在语言中发现未知层次,建立难以解析的复杂神经连接,展现出超越创造者想象的智慧。Geoffrey Hinton也曾说过,他不完全理解这些系统是如何得出结论的

在最近的一期沃顿商学院人工智能(AI)研讨会上,一位在这个领域具有卓越远见的领导者 - Erik Brynjolfsson教授,作为斯坦福大学的教授,以及斯坦福大学HAI(人类中心人工智能研究所)数字经济实验室的主任,Brynjolfsson教授长期致力于数字经济、人工智能和未来工作的研究。他的开创性工作深刻改变了我们对数字技术如何变革企业和社会的理解。

在他的演讲中,Brynjolfsson教授阐述了人工智能发展的新范式。他指出,我们正在从传统的"软件1.0"模式转向"软件2.0"时代。在这个新时代,机器学习算法能够从大量数据中自主学习,无需程序员事先定义每一个细节。这种转变得益于三个关键因素的进步:计算能力的指数级增长、数字化数据的爆炸式增加,以及机器学习算法的显著改进。

这种新范式不仅改变了我们创造和使用软件的方式,更重要的是,它正在重新定义人类与技术之间的关系。随着人工智能系统变得越来越强大和普遍,我们需要重新思考工作的本质、创新的过程,以及如何在这个快速变化的世界中保持竞争力。

演讲文稿

我在几年前移居到了西海岸,就像沃顿商学院在这里也设有基地一样。我和在座的各位一样,最近几年在我的研究中越来越多地关注人工智能。因此,今天我想讨论一下人工智能的全局图景,尤其是最近的人工智能有哪些不同之处,以及它对经济的影响。接着我会深入介绍一些研究,分享一些生成式人工智能如何改变工作和生产力的例子。之后,我将回顾一些研究问题以及更广泛的影响。

1、AI是通用技术

那么首先,先让我来展示一下幻灯片。嗯,我认为人工智能是我们这个时代最重要的技术,甚至可能是有史以来最重要的技术。原因在于人工智能是一种通用技术(GPT)。在这里,GPT代表的是“通用目的技术”(General Purpose Technology),而不是生成式预训练转换模型(Generative Pre-trained Transformer),尽管很遗憾AI研究人员把这个缩写从经济学家那里抢走了。

Tim Bresnahan和Manuel Trajtenberg定义的通用技术有三个特点:它具有广泛性,能够随着时间推移得到改进,并能激发互补的创新。通用技术是驱动经济增长的关键力量,比如蒸汽机和电力,它们是最重要的技术。而人工智能正是我们这一代的通用技术,我不认为这是夸张的说法。事实上,人工智能可能是所有通用技术中最通用的一种。比如,DeepMind的伦敦办公室有一句非常简朴的口号:“我们的目标是解决智能问题,并利用它来解决世界上的其他问题。”虽然你们每个人可能都有一个同样“谦逊”的个人使命宣言,但这句话里确实有很多道理。如果我们能够真正解决智能问题,或者在智能领域取得重大进展,就能够更好地解决健康、长寿、环境、生活标准、贫困,甚至是治理方面的问题。这使得人工智能成为一种非常强大的技术。好消息是,人工智能不仅是一种通用技术,而且它正在快速发展。

大概八九年前,我们启动了一个叫做“AI指数”的项目,因为没有一个地方能系统性地展示所有的进展和证据。以下是我们最新报告中的一张图表,大家可以访问我们的网站,下载大约520页类似的图表。我们尝试对数据进行一些整理和验证,以观察技术、经济、社会和学术等多种指标的进展情况。这是其中的一张图,我让他们把不同图表的数据集中在一张图上,展示给大家。你可以看到各项指标的快速进展。举例来说,第一个指标是图像分类,这实际上是一个非常戏剧性的变化。以前用 ImageNet 来识别图像几乎是不可行的,而现在在许多应用中,它的表现已经超过了人类。我在图中加了一条虚线,因为当机器能够比人类做得更好时,这具有重要的经济意义。稍后我们会讨论这种思考方式的利弊。

现在,为什么这些线不仅仅是陡峭地上升,甚至还越来越快呢?到底发生了什么?

我认为,了解AI的不同之处以及当今世界的新变化是很有帮助的。Lynn 提到了我和 Andrew McAfee 合著的书《第二次机器时代》。我们认为,一个重要的事实是,早期的技术,比如蒸汽机,主要是帮助增强我们的体力,处理物质工作,比如移动原子。而第二次机器时代则是关于心智能力的增强,机器能够帮助我们提升认知能力。然而,在过去的50到70年里,这场革命主要集中在一种特定类型的机器上——你教机器做什么,它就按照指令执行。这在传统编程和早期的人工智能中都是如此。我年纪足够大,1988年我开始教授人工智能课程时,教的是专家系统、基于规则的系统,我们需要手动编写大量规则,让机器执行。但现在我们进入了一个新的时代——机器学习。机器学习一直存在,但直到最近才变得非常强大。机器学习的根本不同之处在于它如何工作,Andrej Karpathy 称之为“软件2.0”。

以往的编程,大家都非常熟悉:你有一组输入,写下程序的指令,然后计算机根据指令得出输出。如果你的程序有一处标点错误,或者哪怕是一个小地方写错了,结果就会出错。因此,你必须完全清楚每一步的流程。这种模式仍然适用于很多情况,产生了价值数十亿甚至数万亿的经济效益。我们称之为旧范式,尽管它仍在增长,并且正占据越来越多的经济领域,正如 Marc Andreessen 所说的,软件正在吞噬整个世界。

但“软件2.0”有所不同,它不是输入应用于某个函数,而是给定输入和输出,通过训练数据来推导出这个函数。你不需要事先知道函数是什么,机器可以从世界中的模式和隐性知识中学习。一旦得出了这个函数F(x),你就可以使用它进行推理。这个新范式有两个步骤,第一是训练,这是你常听到的机器在大数据集上训练的过程,非常昂贵。第二是推理,它可能在你的手机或者本地计算机上运行,通过新输入得出新的输出。

2、新范式的转变

这个新范式一直在发展,但现在有三大变化让它变得如此强大。首先是计算能力的巨大提升,如今的计算能力比几十年前多了数百万倍,而这些推理过程需要大量的计算能力。其次是数据量的增加,90年代之前我们没有多少数字化的数据,几乎所有的数据都是模拟的。而如今,数字数据的大量涌现为机器学习提供了基础。最后是算法的改进,这也很重要。所有这三方面的提升都推动了机器学习从一个概念变成了一种极其强大的技术。Andrew 和我在《哈佛商业评论》里写过一个例子,几乎每个公司都有成千上万的输入和输出数据,它们都能应用这个新范式“软件2.0”,从而进行新的诊断。Joshua Gans、Avi Goldfarb 和 Ajay Agrawal 将其称为“预测机器”,它的核心就是从输入预测输出。

现在我们进入了第三波浪潮,这也是本次会议的主题——第二次机器时代的第三波浪潮。现在,机器不仅仅是根据指令或通过学习来执行任务,它们还能够创造东西,也就是生成式人工智能。这一发展让很多人感到意外,包括我自己。我走在斯坦福大学盖茨大楼的走廊里,那是我从经济系搬到的地方,因为我想和计算机科学家们靠近一些。我问了他们,他们也是真正感到惊讶。一个有趣的例子是,看看大众文化是如何想象的。我想大多数人可能都看过威尔·史密斯主演的《我,机器人》。电影中有一个标志性的场景,他试图难为机器人,问道:“机器人能作曲吗?机器人能拿着空白画布创作出一幅杰作吗?” 在电影中,显然机器人做不到,这简直荒谬。电影设定的时间是2035年的芝加哥,当然机器人是无法做到的,所以人类更厉害。但如果这部电影不是设定在2035年,而是在2024年,机器人会说:“是的,当然可以做到这些事情,甚至还能做更多。”所以,在某些方面,我们已经超出了科幻作家们的想象,这让我们思考当今世界正在发生的事情。我会在演讲的最后谈谈我们作为研究人员应该如何调整我们的预期。

现在,这不仅仅是一些有趣的科幻内容,还有大量的量化数据可以证明。Eric Horvitz和微软的团队在一篇叫做《AGI的火花》的论文中提出了许多类似的图表,大约100页的图表展示了生成式人工智能的进展。你们可能已经看过了,比如这些AI现在能够参加SAT、PSAT或GRE等考试,表现和50%甚至90%的人类考生相当。这是一个有趣的基准测试,尽管我们都知道学术考试并不能很好地衡量实际的实用价值。

所以,我们更关注一些生产力方面的影响。我现在想花一些时间谈一谈我和Lindsey Raymond以及Danielle Li在呼叫中心做的工作。我们进行了一个自然实验,能够很好地揭示生成式人工智能对生产力、劳动力、学习速度等方面的影响。这个实验的背景是,Cresta公司(由斯坦福创立)引入了一个基于GPT的大型语言模型,帮助呼叫中心的客服人员更好地回答问题。它并没有试图取代这些客服人员,而是增强了他们的能力。稍后我们会更多地谈到这一点。比如,客户可能会提出一个问题(红字部分显示),然后系统会为客服人员提供一个提示。客服人员可以直接使用这个提示,或者进行编辑(他们经常会这么做),也可以完全忽略提示并给出自己的回答,最终由人工客服决定如何回应。

我喜欢这项研究的一点是,我们不需要进行复杂的计量经济学分析,因为实验数据非常干净,你可以直接从数据中看到结果。所以,当我看到这点时,我知道我们有一些有趣的东西可以写成论文。从多个指标来看,我们立即发现了显著的变化,比如每小时处理的案件数量、处理的速度、成功解决问题的概率等都有明显的提升,而且这些结果在统计上都是显著的。如果你想做更多的计量经济学分析,可以进行差异分析,结果也很清晰。在差异分析的学术讨论中,关于如何处理这些方法有争论,我不知道谁对谁错,所以我们进行了所有的分析方法,无论使用哪种方法,结果都是一致的。

我们还看到了一些其他的变化。比如,我们可以通过情感分析来衡量客户的情绪。大家可能玩过情感分析,分析这些数百万的对话记录,其中有一些是带有“快乐”词汇的,也有一些是“愤怒”词汇的。客户的情绪有很多种类,虽然我本希望客服人员的情绪变化更大一些,但结果显示所有的客服人员都非常友好。

3、信息技术受益群体

几乎所有客服人员的表现都差不多,所以他们的情绪变化不大。那么,当引入AI系统后,发生了什么呢?客户变得更开心了,他们更友善,满意度也提高了,至少从他们的言辞来看,这是件好事。至于客服人员,情绪上的变化很难察觉,我猜可能是因为他们本来就很开心,已经接近“上限”了,或者说,他们在心底深处的真实感受无法完全表达出来。不过,从他们的对话中,如果你仔细观察,客服人员的情绪似乎也有所提升,但幅度很小,因为他们本来就已经接近顶峰了。更有趣的是,不同人群之间的差异化效果。我研究生产力和不平等问题已有数十年了,以往的主流观点是“技能偏向技术变革”。Tim Bresnahan和我在20世纪90年代末写了一篇论文,讨论技术变革(尤其是信息技术)如何使技能更高的工人受益更多,并加剧收入不平等。过去20到40年间,不平等现象确实加剧了,而技术变革,尤其是IT技术,是其中的主要原因。关于这一点,有大量的文献探讨。

但这一次情况有所不同。当我们将客服人员按技能水平分成五个组进行分析时,发现受益最多的并不是技能最强的那群人,而是技能最弱的工人。这次并不是“技能偏向技术变革”,而是AI帮助了那些技能较弱的工人。你们可能还记得,我之前提到整体效益提高了大约14%,但对于技能最弱的工人,这一数字接近30%,有些指标甚至高达35%。而对于技能最强的工人,几乎没有显著提升,甚至可以说略微为负。这种现象不仅体现在技能上,也体现在工作年限上。新员工比那些工作时间较长的员工受益更多。这与以往的技术变革模式截然不同。不仅仅是我们有这样的发现,很多其他研究也得出了类似的结论。正如“软件2.0”与传统软件开发方式的不同一样,这种模式的不同之处在于,AI系统能够捕捉到那些顶尖客服人员所拥有的隐性知识,这些知识从未被明确记录在任何手册中。AI通过分析大量的对话记录,学习哪些回答效果好,哪些效果不好,并将这些知识传授给技能较弱的工人,从而缩小了差距。如果你已经处于前沿水平,那么系统没有太多东西可以教你,这就是为什么不同人群的受益差异如此明显。

此外,AI还帮助这些工人加快了学习速度。没有使用AI系统的员工虽然会随着时间的推移有所进步,但速度较慢。而那些使用了AI系统的员工在几个月内显著提高,通常在四五个月内,甚至在两三个月内,他们的表现就超过了那些没有使用系统的员工。我们还观察到一组员工是在五六个月后才获得系统使用权的,他们的进步介于两者之间。我曾担心这种技术会变成一种依赖工具。比如,当我使用GPS时,我开始忘记如何自己找到路,变得过度依赖它。或者当人们使用计算器时,他们可能会忘记如何手动计算开立方根。因此,我担心使用AI系统的员工会失去一些技能。然而,当AI系统在工作中帮助员工时,他们确实在解决问题的速度上显著提升。有趣的是,系统偶尔会崩溃,这对我们研究人员来说是个意外的好事——虽然对公司来说未必如此。我们利用这个自然实验观察了这些依赖AI系统的员工在系统崩溃时的表现。据我们所知,系统崩溃是随机的,尽管我们也无法完全排除其他可能性。当系统崩溃时,我们可以观察这些原本依赖系统的员工是否会因此迷失方向。

看起来,当你稍微仔细观察数据时,即使在统计上也能看到,那些使用了AI系统的人在系统崩溃后仍然表现得更好。这表明他们不仅仅依赖于系统,而是将一些知识内化了。所以,AI系统并没有成为拐杖,反而更像是一个学习工具。当我们采访这些员工,试图了解发生了什么时,得到了有趣的结果。在引入AI系统之前,他们也试图学习。通常,他们会在一周的客户互动后与经理会面,经理会拿出对话记录并指出,“这里你应该提到另一款产品,其实有一个更简单的解决方案,你应该告诉他们这个方法。”或者,“你可能不应该在生气时频繁使用‘F’字开头的词(笑)。”然后客服人员会从中学习,期望下周能做得更好。这显然是一个相对稀疏、缓慢的学习方式。而在引入AI系统后,每一次通话,他们都会看到一个即时的、上下文相关的答案提示。这是一种更好的学习方式,他们的大脑会吸收这些知识。

这里我想再讲几张关于语言变化的幻灯片。蓝点代表没有使用AI系统的人,红点代表那些使用了系统的人。我们研究了低技能员工和高技能员工在语言上的相似度。令人惊讶的是,这个大型语言模型改变了他们的语言风格。低技能员工开始像高技能员工一样说话,他们使用了相似的词汇,不仅仅是内容上的相似,还有语气和用词类型上的一致性。我们正在研究这些员工中,有些是在菲律宾工作的,他们是否学会了美国的一些比喻,比如关于棒球的比喻等,这些文化差异也值得研究。

4、机器学习

最后,我想谈一下机器学习在哪些方面表现得很好,哪些方面不太好。我之前提到过,这项技术并没有取代人类,而是增强了他们的能力。Cresta公司选择这种增强方式,是因为他们明白,即使AI再强大,它也无法做到人类能做的一切,至少目前还不行。尤其是,机器学习需要数据,数据是机器学习的生命线。你需要有大量的数据来训练AI系统。比如,有些问题经常出现,像“如何更改密码?”、“我被系统锁定了,怎么解锁?”等,但有些问题可能只在数据中出现过一两次,甚至几乎从未出现过。比如一些复杂的税务问题,AI系统无法解决这些问题,因为它从未见过。

机器学习系统在拥有大量数据的常见问题上表现得非常好。而我们人类,即使没有大量数据,也能“摸索着”处理问题。我们擅长处理例外情况,Reid Hoffman称这为“人类的超级能力”,即处理例外的能力。因此,在非常罕见的问题上,人类表现更好;在常见问题上,机器表现更好;而在那些介于中间的常见问题上,机器往往能发挥最大的作用,因为这些问题对人类来说已经是熟练掌握的领域。有很多研究在支持这一点,其实这个幻灯片里列出的研究应该有30到50篇。我只想强调一点,虽然我们讨论的只是其中一项研究,但我描述的这些模式已经在很多研究中得到了验证。首先,我们通常能够迅速看到生产力的提升,常常是人类与机器的结合胜过单独的机器。在很多研究中,我们也发现,技能较低的工人受益更多,而技能较高的工人受益较少。

目前已经积累了一些证据,我认为我们还需要观察这种模式是否具有普遍性,我确信它不是普遍现象,但它的常见程度如何还需进一步研究。接下来,我想谈谈一些面临的挑战,以及我所谓的“图灵陷阱”。我对人工智能提升生产力充满信心,但尽管刚才我提到过人工智能可能会帮助提升技能较低的工人,我仍然担心它是否会持续减少收入不平等。即便在技能方面有所帮助,它可能会导致资本和劳动力之间的价值转移,而资本的集中度远高于劳动力。如果价值向资本倾斜,这可能会导致财富的集中,从而导致权力的集中。一个特别令人担忧的方面是,我们正在制造的机器越来越接近人类。艾伦·图灵(Alan Turing),他写了一篇具有标志性的论文,其中定义了人工智能的概念——图灵测试。这篇1950年的论文将其定义为“模仿游戏”。他认为,衡量人工智能的标准就是像人类一样,人类是智能的标杆,如果一台机器与人类无法区分,那么它就是智能的。我曾经也认为这是个好主意,但现在我认为这是个糟糕的想法,这不是一个好的测试标准,作为目标来说更糟糕。尽管如此,很多人还是在追求这个目标。我和技术人员、管理者和政策制定者谈话时,他们明确或隐含地表示,目标是制造出与人类相似的机器。我们越来越多地看到类人机器人,很多基准测试也是看机器与人类的对比,就像我刚才在AI指数的幻灯片中展示的一些例子目标是强人工智能,即机器可以完成与人类完全相同的工作。我认为朝这个方向前进很有诱惑力,但这并不是我们应该追求的方向,尤其是在我们已经非常接近实现这一目标的时候,就像一只追上了车的狗——等一下,这真的是我们一开始想要做的事情吗?

除了概念上它是个坏的测试标准之外,我认为还有两个经济上的原因表明这会是个问题。第一个原因是,它实际上并不够雄心勃勃,它设定了太低的目标。如果我们只是复制人类现在的工作,并让机器来完成这些工作,那是一条低标准的路线。你可能认为这是一个高标准,但我认为这是一个低标准。让我们想象一下,假设Daedalus(希腊神话中的工程师)几千年前发明了第一台机器人,并遵循了Alan Turing的建议,制造出能够完成古希腊人所有工作的机器。这看起来不错,对吧?那意味着我们可以自动化制作陶器,编织长袍,机器可以完成一切。如果你生病了,机器还可以像古代人那样燃烧香料来治愈你。好消息是,人类不需要再工作了,机器会做一切工作。但我们的生活水平真的会因此提高很多吗?我们或许会有成堆的希腊陶罐和随时可用的马车,但这并不是提升生活标准的根本。真正推动生活水平提高的是发明新事物,创造我们之前从未有过的东西。因此,光是模仿我们目前的生产方式,并以零劳动力成本完成所有工作,这是远远不够的。如果未来的世代发现我们仅仅是通过机器重复现有的工作,他们可能会感到失望。

第二个原因更加危险。它不仅设定了不够高的目标,还会导致不平等的严重后果。这就是我所说的“图灵陷阱”,可以用一个简单的等式来表达。大家都知道,生产力的定义是输出除以输入,通常我们用GDP除以劳动时间来衡量生产力。那么,如果我们将劳动时间设为零,生产力会发生什么变化?很简单,生产力会趋于无限大。这看起来很棒,对吧?生产力无限高,简直不可思议!但问题是,劳动收入会发生什么?它会归零。如果大多数人的收入来源是劳动收入,那这将是一个严重的问题。生产力的无限增长并不是一切。如果我们达到了无限的生产力,却让很多人陷入困境,不仅是相对意义上的困境,甚至是绝对意义上的困境,那么这显然不是我们想要的结果。

5、劳动收入

现在我们有了一个新问题。关于劳动收入,它本质上是去中心化的。如果你不支付工厂工人、农民或教授的工资,那么你就得不到他们的劳动产出。但如果你不再需要他们了,他们就失去了经济谈判的力量。你可能会出于慈善或好心去支付他们,或者可能有法律强制你这么做,但你可以看到,这可能不是一个稳定的平衡。如果这些人(或者说我们,如果你是劳动力,而非资本拥有者)没有权力,那就会引发问题。所以我有些担心的是,我们不仅需要繁荣,还需要共同的繁荣。让我来谈谈未来和当前发生的事情。Gary Kasparov在1997年输给了深蓝棋手,之后他说:“机器可以打败我,但人类和机器联手可以打败任何机器。”因此,他创建了“半人马棋”或“自由棋”,这种方式在一段时间内非常成功。这与我之前提到的“图灵陷阱”相符,即让人类和机器一起工作。然而,事实证明现在这个说法已经不再成立了。AlphaZero变得如此强大,以至于如果人类试图给它建议,那就像蚊子在你耳边嗡嗡作响,说“你该做这个,那个”,实际上没有什么可加的东西了,它的水平远远超出了人类的能力。

同样的例子还有自动驾驶汽车。虽然进展比预期慢一点,但我们已经在逐步接近了。这是2012年我和Andy McAfee的合影,当时我们站在一辆谷歌自动驾驶车前。从Mountain View到旧金山,我乘坐了这辆车。真事!我们在101号公路上行驶,当快到旧金山的立交桥时,人类司机接管了方向盘,绕过了盘旋的匝道,然后车子又重新上路,尽管当时交通完全停滞,但车子并没有出事故。所以我当时想,差不多了,2012年,应该很快就能实现完全自动驾驶了。但现在来看,还没完全实现,但我们已经接近了。有多少人在旧金山坐过Waymo的自动驾驶车?大家有机会的话可以去试试。我觉得它已经非常接近了,不过还需要大规模推广,目前成本还是很高的。我不确定具体的经济性,但它确实在接近商业化,他们已经在凤凰城推广了,也许有一天会来到费城和其他地方。我相信他们有计划在全球推广。我们现在正在逐步突破自动化的各个层次,大家可能听说过,自动驾驶的六个层次从0到5,我们现在基本处于5这个层次,你几乎不再需要人类介入,只是成本问题还没完全解决。

特斯拉现在处于某种阶段。我自己有一辆特斯拉,偶尔我会打开自动驾驶模式,但有时有点吓人,我会双手交叉祈祷,几次差点发生意外。但特斯拉和Waymo采取了不同的技术路径,Waymo依赖大量的激光雷达和计算能力,而特斯拉则采用更精简的数据处理方式。我们拭目以待,看看哪种方式最终能够降低成本。但他们现在还在亏钱。我听说每次行程大约亏损50到70美元,不过别引述我。Uber早期也是这样,他们想学习市场规律。所以,不要看零售价格,激光雷达的成本在下降,计算能力的成本也在下降,系统越来越高效。我们看看什么时候能实现经济可行性,但你们可以感谢他们的搜索引擎收入来补贴这些出行成本。

我的更广泛的观点是,我们看到这些事情逐渐进展。我给你们一个思考练习,不仅仅是象棋和自动驾驶,而是经济中的每一项任务都在经历这些阶段。我假设,随着时间的推移,每件事都会自然地经历这个过程,有的进展快一些,有的进展慢一些。如果你们有兴趣和我一起思考这个问题,欢迎之后找我聊聊或者发邮件给我。我想试着创建一个分类法,看看哪些任务会更快实现,哪些任务会更慢,最终我们能否覆盖所有任务,还是有些事情永远无法自动化。对于象棋和汽车,我们确实看到了通过这些不同阶段的进展,我认为你可以为此建立一个类似的分类法。

我想留一些时间来回答问题,所以让我先快速讲一下我所称为“变革性AI”的几个观点。有些人讨论通用人工智能(AGI),即非常广泛的AI,他们将其与人类智能相对应,而我刚才提到,这不是一个好的对应关系,尽管我觉得自己可能在这场争论中输了。但我还是希望AGI的概念要比人类智能更广泛。你们可以把这记下来,我的预测是,在五年内,人们将认为人类智能其实是一种非常狭隘的智能,它并不是“通用”智能。人类不能做矩阵运算,也不能理解超声波,或者其他更复杂的事情。所以,我认为“通用”智能应该有更广泛的定义。

还有一个我称之为“变革性AI”的类别,这对像我这样的经济学家来说非常重要。我不会去争论它是否是真正的智能,我关心的是它是否正在改变经济。如果几乎每一份工作、每一个任务、每一个流程、每一家公司都被它所改变,那就是变革性AI。我们目前还没有一个很好的衡量指标来衡量这一点。回到AGI的话题,你们有多少人听说过Metaculus?没有?好,那你们学到了一些新东西。去查查这个网站吧,它汇聚了很多不同的预测。其中之一是关于通用人工智能的。在2022年,预测显示AGI将在2057年实现,也就是大约34年后。而去年,这个预测变成了2040年。今年的预测是2032年,我今天早上刚查了一下。这个网站的好处是,它有一个非常详细的多页描述,定义了什么是通用智能,并列出了它需要通过的一些测试,比如莱伯奖以及一些物理任务等。所以,它的定义非常明确。

让我感兴趣的是,过去两年里,专家们对AGI实现时间的预测变得更近了,这与我在与AI研究人员交流时听到的情况相吻合。当预测是2057年时,我并不太担心。人们说AI将会做所有事情,我会说:“也许吧,总有一天会实现的。”这对哲学家来说可能很有趣,但我会更关注未来五到十年的发展。然而,现在我不再这么说了,我必须开始认真对待这个问题。我们认为这一进展的原因之一是“扩展定律”,不过我不会花太多时间在这个上面。

接下来,我想提一下一个叫做Project Apollo的项目,我们野心勃勃地将其命名为“阿波罗计划”。这个项目的目标是理解变革性AI的经济学。我们将定义什么是经济理论、基准和制度,这些将用于理解一个AI能力更加广泛的经济体,或许最早在2032年实现,也可能更早或更晚。我不确定确切的年份,但如果在那个范围内有合理的概率,那么我们就必须着手研究这个问题。如果你们中有人想和我一起研究这个问题,请告诉我。我们将召集一些对这个话题感兴趣的人,来研究这一更具变革性的未来,而不仅仅是像呼叫中心研究那样,关注接下来几年内发生的事情。如果没有对这些问题的理解,我认为政策制定者将会处于“盲飞”状态。因此,这里有一些实证工作要做,有一些理论工作要做,可能还会有一些模拟和其他可以用这些技术完成的工作。如果你们对我提到的任何内容感兴趣,每张幻灯片的角落都有相关论文的引用,你可以在我的网站或斯坦福数字经济实验室的网站上找到它们。欢迎大家去看看。

好了,我讲完了。看看大家有没有问题或评论。谢谢大家。

观众提问

观众1:  我叫Evan Shellin,来自全球金融科技论坛。我的问题与您刚刚提到的经济学有关。最近几天市场下跌,昨天和今天都有下滑,人们担心经济衰退即将到来。如果这种情况真的发生,问题是,现代的经济衰退会持续多久?自从2000年以来,尤其是互联网出现后,衰退似乎持续时间较短,可能只有三四个月,之后经济就会反弹。现在随着AI的到来,您认为这种情况会如何影响市场?

Erik Brynjolfsson: 这是个非常有趣的问题,尽管我对商业周期并没有太多研究,但我可以谈两三点。很久以前,艾伦·格林斯潘(前美联储主席)曾问我类似的问题,关于数字技术是否加快了一切的速度。实际上,我当时问了他一个问题,我说数字技术加快了经济发展的速度,美联储是否能够更快地了解经济情况并做出回应?他回答说,这实际上是个“红皇后现象”:他们确实能更快地了解情况,但各个公司也能更快地做出反应,因此在理解经济走向方面并没有实际上的改善,还是稍微慢了一步。所以,我认为这里有一种“军备竞赛”,很多人都在使用AI,可能会加速一切,但不一定能提高对经济的掌控能力。

虽然我不太关注商业周期,但我有一个假设:当你看到巨大的生产力增长时,宏观经济不一定总是表现良好。矛盾的是,生产力提高了,产量增加,价格下跌,但如果美联储或其他机构管理不当,需求可能无法跟上增加的供应。那会发生什么呢?20世纪30年代时,我们看到许多农民因为新技术的使用(比如拖拉机)而大幅提高了生产力,导致农产品过剩。结果呢?价格下降,但农民的收入却减少了,甚至比他们产量较低时的收入还少。如果我们不小心,也可能发生类似的情况——我们有大量的生产力增长,但如果宏观经济管理不当,这可能不仅会导致短期衰退,像最近几次相对较短的衰退,而是一次严重的衰退。我希望我们能通过研究了解,如何在这种大规模生产力增长的时代中更好地引导经济。

观众2:  嗨,Erik,我叫Abishek,来自乔治梅森大学的科斯特尔商学院。我的问题与您演讲的最后部分有关,带有一些经济学方面的思考。根据您在演讲开头提到的内容,每次技术进步过程中,人类似乎都对这些技术有更深的理解。比如蒸汽机,人类知道它的基本工作原理;再比如硅芯片,人们也理解其运作方式。但关于人工智能,让我担忧的是,即便是现在,科学家们也不完全知道神经网络是如何进行预测的。大家并不真正理解其背后的数学原理,它如何具体运作。似乎我们只是丢进大量数据,然后看看什么有效。对此,您认为我们是否应该先彻底理解神经网络的工作原理,然后再推动变革?还是应该继续全速前进,看看会发生什么?

Erik Brynjolfsson: 你说的完全正确,这是一个真正的挑战。Sber在《60分钟》上有一段视频,展示了如何构建一个大型语言模型(LLM)。你只需写两三行代码,然后输入数据,接着它就会开始训练,可能需要数小时、数天、数周,甚至数月。然后,它会在神经网络中建立起所有的连接,有时可能是数十亿甚至上万亿个连接。但他并不知道这些连接的具体作用是什么。Geoffrey Hinton(被称为“神经网络之父”)也曾说过,他不完全理解这些系统是如何得出结论的。Eric Schmidt(前谷歌CEO)、已故的亨利·基辛格以及Dan Hut Leer曾在《华尔街日报》上写过一篇文章,他们提到,我们可能需要重新定义人与技术的关系。千年前,人类都带有一些迷信色彩,对未知的事物敬畏,而现在我们可能又要面对类似的局面。

以前,人们可能认为下雨是雨神的功劳,但后来我们有了科学,理解了自然现象的模型,并创造了像蒸汽机这样的技术。真正的历史学家会告诉你,有时候技术在理解之前就已经被发明了,但没关系,我们还是弄清楚了它的工作原理。他们现在说,我们可能正回到一个时代,我们不得不相信“神谕”——我们不知道为什么AI会给出这样的答案,感觉有些神秘和不可思议。AI给出了正确的答案,但我们并不完全理解为什么会这样。更奇怪的是,也许我们永远无法理解它,可能它超出了我们的理解范围。Stepan Wolf说,LLM(大型语言模型)对语言的理解有多层次,这些层次甚至是人类从未注意到或理解过的。它的理解水平远远超出了我们的想象。因此,我们必须面对这个现实。

你提到的一个可能性是放慢速度,等一下,先弄清楚它是怎么运作的,然后再继续前进。但我认为这是不现实的,AI的发展会继续推进。一个稍微可行的方案是,用一个AI系统来分析另一个AI系统,解释其决策过程。事实上,GPT4已经在尝试理解GPT3是如何得出结论的。有些人确实在做这方面的工作,但即便如此,AI仍然必须简化解释,以便让我们普通人能够理解。公平地说,人类自己也会这样做。当我告诉你我为什么做某件事时,我也不确定自己是否真的理解大脑中的700亿个神经元以及它们是如何连接的。我提供的是一个看似合理的解释,一个能够自圆其说的故事,但这并不一定是事实。这是一种复杂性,我们只能理解其中的一层。这是我们正步入的一个有趣的新世界,伴随着哲学和认知上的深刻影响。我认为它也带有一定的风险。

观众3:  嗨,Erik,感谢您的精彩演讲。我有一个关于AI未来的担忧。根据一些AI报告,似乎AI公司很快就会用尽大部分互联网上的数据。训练AI的速度比人类生成数据的速度要快得多。因此,在2030年之前,大部分数据可能会被AI公司消耗殆尽。如果没有新的数据来训练AI模型,它们可能会变得“固执”,从而无法继续进步。我对此感到担忧,这是否意味着AI将会停滞不前?

Erik Brynjolfsson: 这是一个很有趣的问题,也可能是个好消息(笑),也许我们不用担心AI的进一步发展了。但我认为,根据我与相关人员的交流,实际上我们可能还能通过更多的视觉数据、图像数据,获得10倍到100倍的数据增量。此外,合成数据也是一个巨大的机会,尤其是在编码等领域。令人惊讶的是,AI可以生成自己的数据,像是“拔着自己的头发飞起来”。AI可以用现有的数据生成编码数据,然后从中学习,甚至比之前表现得更好。你可以用GPT4生成大量的示例和难题,然后训练出更强大的GPT5。

我快速跳过的一张幻灯片其实讲的是这种扩展定律,你们应该熟悉它。Dar Modi等人最先提出了这个定律。它表明,随着计算能力、数据量和参数的增加,性能会出现惊人的提升,至少历史上是这样。我们附近的超大规模计算公司正在投入数十亿、数百亿甚至上千亿美元来推进这个进程。我们会先用尽数据还是先用尽计算能力?我认为数据很可能会成为瓶颈。我们需要找到生成合成数据的方法,或者寻找其他解决办法。让我们记住,虽然当前的范式非常了不起,但历史上从未有过如此多的人在研究更好的范式。谁在研究更好的范式呢?AI也在努力。我们可能会有很多聪明的AI系统,它们也在寻找更好的解决方案。

比如,一个大型语言模型有数十亿个参数,但事实证明,只有大约1%的参数真正对大多数答案有用,其他的都像是“垃圾”。想象一下,如果我们能够找到一种更高效的方法来锁定那1%的有效参数,这就是一个例子。再比如说做规划,我和比尔·盖茨讨论过这个话题,他非常兴奋地谈到“元认知”,即我们知道LLM(大型语言模型)是预测下一个词汇的。如果它要写一篇5000字的文章,它会从一个词开始,比如“狗”,然后逐步预测接下来的每个词。而最终文章竟然非常连贯,这有些奇怪,但效果还不错。有时我也会这样写文章,但大多数情况下,这不是我写文章的方式。

我通常会先写一个大纲,然后为不同部分收集证据,接着调整大纲,最后可能写第一稿,再看看是否连贯。所以,如果你问一个LLM写论文的五个步骤是什么,然后让它按步骤来做,比如“第一步:写大纲;第二步:收集证据”,它的表现会比仅仅预测下一个词要好得多。这就是“元认知”的概念,它是一种更高效的思考方式,不需要大量数据。因此,有很多类似的相对简单的方式,可能会极大地提升AI的性能,我们在未来几个月和几年里会看到这些改进。还有其他问题吗?你们想选谁提问?这可能是最后一个问题。

观众4: 好的,您提到全面自动化不应该是社会的追求。那么对于那些低技能、不具备任何智力挑战性的工作,是否应该进行自动化?另外,如果有些人,例如埃隆·马斯克以及其他一些人,坚决推行全面自动化,世界会变成什么样子?是否需要政府或其他机构进行干预?您认为是否应该有相应的监管措施?

Erik Brynjolfsson: 感谢你提出这个问题。我并不是说我们永远不应该全面自动化,我应该说得更清楚一些。我认为在某些领域全面自动化是有风险的,但在某些地方,它是一个好主意,而在其他地方,它则可能是个坏主意。我在我的《图灵陷阱》文章中详细讨论了这一点,文章中我提出,现在在某些方面,我们有过多的激励去追求全面自动化,应该在一些地方实现自动化,尤其是那些枯燥、危险、不愉快的工作,但在其他地方,这可能并不那么有效。我认为技术人员、政策制定者和管理者都有过多的激励去推行自动化,而我认为我们应该重新平衡这些激励。

所以我并不是反对自动化,我只是希望看到一种更平衡的方式。正如我之前提到的,全面自动化和人类增强之间的平衡非常重要。如果使用更多经济学语言,我们应该在替代和互补之间找到平衡。我发现,当我与很多管理者交流时,他们过于专注于削减成本和自动化,但通常这种做法并不如将人类纳入系统中那么有效。至于埃隆·马斯克,我认为凯恩斯曾经说过,大多数商人都被某些已过时的经济学家的思想所奴役,却甚至不知道自己被这些思想所影响(笑)。所以,如果我们能够改变人们的思维方式,提出一套新的哲学原则来平衡这些利益与成本,也许我们能让他们从另一个角度思考。

当我与技术人员交流时,他们常常对图灵测试非常熟悉,他们会说:“我们要制造一台像人类一样的机器,它有五指的手,并且像人类一样说话。”对于他们来说,这就是AI的定义,似乎已经深深植入了他们的血液中。但当我给他们提供另一种范式时,比如在ICLR大会上,很多技术人员在听完我的演讲后走过来对我说:“哦,我没意识到你希望我们瞄准的是这个目标而不是那个目标。没问题,我们可以做出能够增强人类的AI,我们可以开发扩展人类能力的AI。为什么你们不早点告诉我们?”所以我认为技术发展方向实际上是有更大灵活性的,很多人只是没有被引导到这个方向。如果我们提出了合适的论点,也许我们能取得一些进展。

除了改变对话内容外,我们还可以采取一些具体措施,比如改变税收制度。现在的税收制度使得拥有更多人类员工的公司支付的税款更多,而完全自动化的公司则支付更少的税款。这是由于我们现行的税收系统设置造成的,我不确定这是否合理。政府目前在引导方向上起到了作用,但如果我们想要重新平衡,甚至倾向于另一种方式,我们可以改变税收政策、法规和激励措施。因此,改变对话只是其中的一部分,但确实非常重要。我们现在正逐步实现那些曾经只是神话中的人类机器,我们必须仔细思考其经济影响。有些影响可能非常好,但也可能产生反效果。

最终,问题不是技术将会做什么或技术将会对我们做什么,而是我们想通过技术实现什么。而要回答这个问题,只有通过像你们在座的各位正在进行的这种深入研究才能做到。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询