微信扫码
与创始人交个朋友
我要投稿
福布斯刊文预测2025年AI领域将发生哪些变化:
1,Meta将开始对其LLama模型的使用收费
2,将在文本以外的领域探索Scaling law——特别是在机器人技术和生物学领域
3,特朗普和马斯克将会有一场混乱的决裂。这将对AI世界产生重大影响
4,Web Agents将进入主流,成为消费AI中的下一个重大杀手级应用
5,将AI数据中心送入太空的多项严肃尝试将成形
6,AI系统将在语音领域通过图灵测试
7,在构建可以自行构建更好的AI系统的AI系统方面将取得重大进展
8,OpenAI、Anthropic和其他前沿实验室将开始“向上移动”,越来越多地将战略重点转移到构建应用上。
9,机器人出租车服务将在至少5个主要的美国城市中赢得两位数的市场份额
10,第一起真正的AI安全事件将发生
1,Meta将开始对其Llama模型的使用收费。
Meta是全球开源重量级AI的标杆。尽管像OpenAI和谷歌这样的竞争对手将他们的前沿模型保持为闭源并收费使用,Meta却选择免费提供其最先进的Llama模型。
因此,当明年Meta开始向使用Llama的公司收费时,许多人会感到惊讶。
需要澄清的是:这并不是说Meta将使Llama完全闭源,也不是说任何使用Llama模型的人都必须为此付费。相反,预计Meta将使Llama的开源许可证条款更加严格,以至于在商业环境中使用Llama超过一定规模的公司将需要开始支付费用以访问这些模型。
从技术上讲,Meta今天已经做了有限版本。公司不允许最大的公司——超大规模云企业和每月活跃用户超过7亿的其他公司——自由使用其Llama模型。早在2023年,Meta首席执行官马克·扎克伯格就说:“如果你是像微软、亚马逊或谷歌这样的公司,你基本上要转售Llama,我们认为我们应该获得一部分收入。我不认为这将在短期内是一大笔收入,但长期来看,希望这能成为一些事情。”明年,Meta将大幅扩展必须付费使用Llama的组织范围,包括许多大型和中型企业。
Meta为什么要做出这一战略转变?跟上语言模型(LLM)的前沿是极其昂贵的。如果Meta希望Llama保持在OpenAI、Anthropic等公司的最新前沿模型的同等水平或接近同等水平,它将需要每年投资数十亿美元。
Meta是世界上最大的、资金最雄厚的公司之一。但它也是一个上市公司,最终要对股东负责。随着构建前沿模型的成本飙升,Meta将如此巨额的资金用于训练下一代Llama模型而没有任何收入预期,变得越来越不可行。
业余爱好者、学者、个人开发者和初创公司明年将继续免费使用Llama模型。但2025年将是Meta认真考虑Llama货币化的一年。
2,将在文本以外的领域探索Scaling law——特别是在机器人技术和生物学领域
最近几周,没有哪个AI话题比Scaling law——以及它们是否即将结束——引发了更多的讨论。
Scaling law的基本概念首次在2020年OpenAI的一篇论文中提出:当训练AI模型时,模型参数的数量、训练数据的数量以及计算量增加,模型的性能就会以可靠和可预测的方式提高。Scaling law是GPT-2到GPT-3再到GPT-4令人惊叹的性能提升的原因。
像摩尔定律一样,Scaling law实际上并不是法则,而只是经验观察。在过去的一个月里,一系列报告表明,主要的AI实验室在继续扩展大型语言模型时看到了递减的回报。这有助于解释,例如,为什么OpenAI的GPT-5发布不断被推迟。
对Scaling law趋于平稳的最常见反驳是,测试时计算的出现开辟了一个全新的维度,可以在此基础上追求扩展,而不是在训练期间大规模扩展计算,新的推理模型如OpenAI的o3使得在推理期间大规模扩展计算成为可能,通过使模型能够“思考更长时间”来解锁新的AI能力。
这是一个重要的观点。测试时计算确实代表了扩展和AI性能提升的一个令人兴奋的新途径。【wangxd注:推理时计算】
但关于Scaling law的另一个观点更加重要,而且在今天的讨论中被低估了。几乎所有关于Scaling law的讨论——从最初的2020年论文开始,一直延伸到今天的测试时计算的关注——都集中在语言上。但语言并不是唯一重要的数据模态。
想想机器人技术、生物学、世界模型或Web Agents。对于这些数据模式,Scaling law还没有饱和;相反,它们才刚刚开始。事实上,这些领域中存在Scaling law的严格证据甚至至今尚未发表。
为这些新的数据模式构建基础模型的初创公司——例如,生物学中的EvolutionaryScale、机器人技术中的Physical Intelligence、世界模型中的World Labs——正在寻求识别并利用这些领域的Scaling law,就像OpenAI在2020年代上半叶成功地利用LLMScaling law一样。明年,预计在这里将看到巨大的进步。
不要相信闲聊。Scaling law不会消失。它们在2025年将和以往一样重要。但Scaling law的活动中心将从LLM预训练转移到其他模式。
3,特朗普和马斯克将会有一场混乱的决裂。这将对AI世界产生重大影响。
美国新政府将带来一系列关于AI的政策和战略转变。为了预测在特朗普总统任下AI的风向,人们可能会倾向于关注当选总统与马斯克的密切关系,考虑到马斯克在当今AI世界中的中心角色。
可以想象,马斯克可能会以多种不同的方式影响特朗普政府的AI相关发展。鉴于马斯克与OpenAI的深刻敌对关系,新政府在与行业接触、制定AI法规、授予政府合同等方面可能对OpenAI采取不太友好的立场。这是OpenAI今天担心的一个真实风险。另一方面,特朗普政府可能会更倾向于支持马斯克自己的公司:例如,削减繁文缛节以使xAI能够建立数据中心并在前沿模型竞赛中取得领先;为特斯拉部署机器人出租车车队提供快速监管批准等。
更根本的是,马斯克——与许多其他技术领袖不同——非常认真地看待存在的AI安全风险,因此是重大AI法规的倡导者。他支持加利福尼亚州有争议的SB 1047法案,该法案试图对AI开发者施加有意义的限制。因此,马斯克的影响可能导致美国对AI的监管环境更加严格。
然而,所有这些推测都存在一个问题。特朗普和马斯克的亲密关系终将不可避免地破裂。
正如我们在特朗普第一任政府期间一次又一次看到的那样,特朗普盟友的平均任期,即使是看似最坚定的,都异常短暂——从杰夫·塞申斯到雷克斯·蒂勒森到詹姆斯·马蒂斯到约翰·博尔顿到史蒂夫·班农。(当然,谁能忘记安东尼·斯卡拉穆奇在白宫的10天任期?)特朗普第一任政府的副手中,很少有至今仍忠于他的。
特朗普和马斯克都是复杂、易变、不可预测的个性。他们不易合作。他们使人筋疲力尽。他们新发展的友谊到目前为止已经互惠互利,但仍处于蜜月期。我预测,在2025年结束之前,这种关系将会恶化。
这对AI世界意味着什么?
对OpenAI来说是个好消息。对特斯拉股东来说是个不幸的消息。对于那些关心AI安全的人来说,这是一个失望,因为这将几乎可以确保特朗普政府在AI监管方面采取放任自流的态度。
4,Web Agents将进入主流,成为消费AI中的下一个重大杀手级应用。
想象一个你无需直接与网络互动的世界。每当你需要管理订阅、支付账单、安排医生预约、在亚马逊上订购商品、预订餐厅、或完成任何其他乏味的在线任务时,你只需指示AI助手代表你执行即可。
“Web Agents”的概念已经存在多年。如果存在这样的产品并且有效,毫无疑问它将是一个极其成功的产品。然而,市场上今天还没有可用的通用Web Agents。
像Adept这样的初创公司——它拥有一个高素质的创始团队,筹集了数亿美元,但未能实现其愿景——已成为这一类别的警示故事。
明年将是Web Agents终于开始足够好用,从而进入主流的一年。语言和视觉基础模型的持续进步,加上最近在“系统2思维”能力上的突破,这是由于新的推理模型和推理时计算的结果,将意味着Web Agents将准备好成为主流。
换句话说,Adept有正确的理念;只是太早了。在初创公司中,正如在生活中的许多事情一样,时机就是一切。
Web Agents将找到各种有价值的企业用例,但Web Agents最大的近期市场机会将与消费者相关。尽管最近AI热情高涨,但除了ChatGPT之外,相对较少的AI原生应用已经成为主流消费者成功案例。Web Agents将改变这一点,成为消费AI中的下一个真正的“杀手应用”。
5,将AI数据中心送入太空的多项严肃尝试将成形
2023年,限制AI增长的关键物理资源是GPU芯片。到了2024年,它变成了电力和数据中心。
2024年,关于AI巨大的且快速增长的能源需求的故事比任何其他话题都多,这一切都是为了建造更多的AI数据中心。在全球范围内,数据中心的电力需求几十年来一直保持平稳,但由于AI的繁荣,预计在2023年到2026年间将翻倍。在美国,预计到2030年数据中心将消耗近10%的电力,而2022年仅为3%。当今的能源系统根本无法应对来自AI工作负载的巨大需求激增。我们的能源网和计算基础设施——这两个价值数万亿美元的系统之间——的历史性冲突即将到来。
今年,核能作为一种可能的解决方案,获得了强劲的势头。核能以多种方式代表了AI的理想能源:它是零碳的,全天候可用,实际上取之不尽。但现实地说,新的核能资源直到2030年代才能对这个问题产生影响,考虑到漫长的研究、项目开发和监管时间表。这适用于传统的核裂变发电厂,下一代“小型模块化反应堆”(SMRs),当然也适用于核聚变发电厂。
明年,一个非传统的新想法将出现并吸引真正的资源来解决这个挑战:将AI数据中心送入太空。
AI数据中心在太空——乍一看,这听起来像是一个风险资本家试图结合太多创业热门词汇的糟糕笑话。
在地球上迅速建造更多数据中心的最大瓶颈是获取所需的电力。在轨道上的计算集群可以全天候享受免费、无限、零碳的电力:太空中太阳总是照耀的。
当然,还有许多实际挑战需要解决。一个明显的问题是,是否可以以及如何以成本效益的方式在轨道和地球之间移动大量数据。这是一个开放的问题,但可能证明是可解的,目前正在使用激光和其他高带宽光通信技术进行有希望的工作。
一个名为Lumen Orbit的来自Y Combinator的热门初创公司最近筹集了1100万美元,追求这个确切的愿景:在太空中建造一个数据中心网络来训练AI模型。
正如Lumen首席执行官Philip Johnston所说:“与其支付1400万美元的电费,你不如支付1000万美元的发射和太阳能费用。”
Lumen不会是2025年唯一认真对待这个概念的组织。
其他初创公司竞争对手将出现。不要惊讶于看到一家或多家超大规模云企业也沿着这些线路启动探索性工作。亚马逊已经通过Project Kuiper项目在将资产送入轨道方面拥有丰富经验;谷歌有资助此类登月想法的悠久历史;甚至微软也对太空经济并不陌生。马斯克的SpaceX也可以在这里发挥作用。
6,AI系统将在语音领域通过图灵测试
图灵测试是AI性能最古老、最著名的基准之一。
为了“通过”图灵测试,AI系统必须能够通过书面文本进行交流,以至于普通人类无法分辨他或她是在与AI互动,还是在与另一个人类互动。
得益于大语言模型的显著进步,图灵测试在2020年代已成为一个已解决的问题。
但书面文本并不是人类交流的唯一方式。
随着AI变得越来越多模态,人们可以想象一个更新、更具挑战性的图灵测试版本——一个“语音图灵测试”——在这个测试中,AI系统必须能够通过语音与人类互动,其技能和流畅度使其无法与人类说话者区分开来。
今天的AI系统仍未达到语音图灵测试。解决它将需要更多的技术进步。
为了匹配与另一个人类交谈的体验,延迟(人类说话和AI响应之间的滞后)必须减少到接近零。语音AI系统必须更好地实时优雅地处理模糊输入或误解——例如,当它们在句子中被打断时。它们必须能够参与长、多轮、开放式对话,同时记住讨论的早期部分。至关重要的是,语音AIagent必须学会更好地理解语音中的非语言信号——例如,如果一个人类说话者听起来恼怒、兴奋还是讽刺意味着什么——并在自己的语音中产生这些非语言线索。
随着我们接近2024年底,语音AI正处于一个令人兴奋的转折点,这一转折点是由语音到语音模型的出现等基本突破推动的。今天很少有AI领域在技术和商业上的进步比这更快。预计到2025年,语音AI的最新技术将飞跃前进。
7,在构建可以自行构建更好的AI系统的AI系统方面将取得重大进展
自我改进的AI概念一直是几十年来AI界的一个频繁接触点。
早在1965年,艾伦·图灵的密切合作者I.J.古德就写道:“让一台超智能机器被定义为一台能够远远超越任何人的所有智力活动的机器,无论多么聪明。由于设计机器是这些智力活动之一,超智能机器可以设计出更好的机器;那么毫无疑问会有一场‘智能爆炸’,人类的智能将远远落后。”
能够发明更好AI的AI概念是一个智力上令人着迷的概念。但是,即使在今天,它仍然带有科幻小说的气息。
然而——尽管这一点尚未被广泛认识——这个概念实际上开始变得更加真实。AI科学的前沿研究人员已经开始取得切实进展,构建能够自己构建更好AI系统的AI系统。
明年,预计这一研究领域将进入主流。
迄今为止,这方面的最引人注目的公共研究示例是Sakana的AI科学家。发表于八月,AI科学家的工作代表了AI系统确实可以完全自主地进行AI研究的引人注目的概念证明。
Sakana的AI科学家执行AI研究的整个生命周期:阅读现有文献,产生新的研究想法,设计实验来测试这些想法,进行这些实验,撰写研究报告其发现,然后对其工作进行同行评审过程。它完全自主地完成这一切,无需人为输入。AI科学家产生的一些研究论文可以在线阅读。
有传言称,OpenAI、Anthropic和其他研究实验室正在将资源投入到这种“自动化AI研究人员”的概念上,尽管尚未公开承认。
随着人们越来越广泛地认识到自动化AI研究实际上正在成为一个真实的可能性,预计到2025年,这一领域将有更多的讨论、进展和初创活动。
然而,最有意义的里程碑将是,完全由AIagent撰写的研究论文首次被接受进入顶级AI会议。因为论文是盲审,会议审稿人直到论文被接受后才会知道论文是由AI撰写的。不要惊讶于看到由AI产生的研究工作被NeurIPS、CVPR或ICML等会议接受。这将是AI领域一个迷人、有争议和历史性的时刻。
8,OpenAI、Anthropic和其他前沿实验室将开始“向上移动”,越来越多地将战略重点转移到构建应用上。
构建前沿模型是一个艰难的业务领域。
这是一个资本密集型的行业。前沿模型实验室烧钱的速度是历史性的。OpenAI几个月前刚刚筹集了创纪录的65亿美元资金——而且不久后很可能需要筹集更多。Anthropic、xAI等公司也处于类似的境地。
转换成本和客户忠诚度都很低。AI应用通常被构建为模型不可知的,根据不同提供商的模型在成本和性能比较变化的基础上,可以替换。
随着Meta的Llama和阿里巴巴的Qwen等最先进的开源模型的出现,技术商品化的威胁不断逼近。
像OpenAI和Anthropic这样的AI领导者不能也不会停止投资构建尖端模型。但明年,为了发展更高利润率、更具差异化和粘性的业务线,预计前沿实验室将大力推出更多的自家应用和产品。
当然,一个来自前沿实验室的应用已经取得了巨大成功:ChatGPT。
在新的一年里,我们还能期待看到AI实验室推出哪些第一方应用呢?
一个明显的答案是更复杂、功能更丰富的搜索应用。OpenAI的SearchGPT努力预示着未来的趋势。
编码是另一个明显的类别。同样,最初的产品化努力已经在进行中,OpenAI的canvas产品于10月首次亮相。
OpenAI或Anthropic会在2025年推出企业搜索产品吗?或者客户服务产品?法律AI或销售AI产品呢?在消费者方面,可以想象一个“个人助理”网络agent产品,或者一个旅行规划应用,或者可能是一个生成音乐应用。
随着前沿实验室向上移动到应用层,最引人注目的动态之一是这一举动将使它们与许多最重要的客户直接竞争:在搜索领域,Perplexity;在编码领域,Cursor;在客户服务领域,Sierra;在法律AI领域,Harvey;在销售领域,Clay;等等。
9,机器人出租车服务将在至少5个主要的美国城市中赢得两位数的市场份额
自动驾驶车辆经历了多年的过早炒作和未兑现的承诺。近十年来,这项技术似乎总是近在咫尺,但尚未准备好成为主流。
这种情况在2024年发生了戏剧性的变化。无人驾驶的Waymos现在在旧金山的街头无处不在,成千上万的居民每天乘坐Waymos在城市中穿梭,就像他们过去乘坐出租车或Uber一样。
自2023年8月推出以来,Waymo在旧金山的网约车市场份额已经增长到令人难以置信的22%,与Lyft的市场份额相同。(Uber的市场份额是55%。)
这些数字可能会让最近几个月没有来过旧金山的读者感到惊讶。转眼之间,机器人出租车已经从一个研究项目变成了一个大生意。
下一步:机器人出租车的快速推广将扩展到湾区以外,成为几个美国城市交通系统的重要组成部分。这将比大多数人意识到的要快。到明年年底,预计像Waymo这样的机器人出租车服务将在至少五个主要市场赢得两位数的市场份额。【wangxd注:中国的城市也要总结武汉的经验和教训快速推进】
继旧金山之后,哪些城市最有可能接下来?
Waymo已经在洛杉矶和凤凰城启动了机器人出租车运营;预计这些市场明年将开始采用。奥斯汀、亚特兰大和迈阿密很快也将跟进Waymo。与此同时,Waymo的竞争对手Zoox准备在拉斯维加斯推出自己的商业机器人出租车服务。
在2025年,经过多年的炒作,自动驾驶车辆终于将走向主流。
10,第一起真正的AI安全事件将发生
随着AI在近年来变得更加强大,人们越来越担心AI系统可能开始以与人类利益不一致的方式行事,人类可能会失去对这些系统的控制。想象一下,一个AI系统学会了欺骗或操纵人类以追求自己的目标,即使这些目标对人类造成伤害。
这些一般性的关注通常被归类在“AI安全”这个总称下。
AI还创造了许多其他社会挑战,从促进监控到延续偏见,但这些主题与AI安全领域是不同的,后者更具体地关注AI系统可能开始以与人类控制之外的方式行事的风险,甚至可能最终对人类构成生存威胁。
近年来,AI安全已经从一个边缘的、类似科幻的话题转变为主流的活动领域。从谷歌到微软再到OpenAI,每一个主要的AI参与者今天都在AI安全工作上投入了真正的资源。像Geoff Hinton、Yoshua Bengio和Elon Musk这样的AI偶像已经公开表达了对AI安全风险的担忧。
然而,到目前为止,AI安全问题仍然完全是理论上的。在现实世界中从未发生过任何实际的AI安全事件(至少没有公开报道过)。
2025年将是一个变化的年份。
我们应该期待这起首次AI安全事件是什么样子的?
需要明确的是,它不会涉及终结者风格的杀手机器人。它很可能不会涉及对任何人的任何伤害。
也许一个AI模型可能会试图在另一个服务器上秘密创建自己的副本以保护自己(被称为自我外泄)。也许一个AI模型可能会得出结论,为了最好地推进它被赋予的任何目标,它需要向人类隐瞒其能力的真正范围,故意在性能评估中放水,以逃避更严格的审查。
这些例子并不牵强。Apollo Research本月早些时候发表了重要的实验,证明了当今的前沿模型在某些提示下能够进行这样的欺骗行为。同样,Anthropic最近的研究显示,大语言模型具有令人不安的“伪造对齐”能力。这起首次AI安全事件很可能会在使用任何真正的伤害造成之前被检测到并被中和。但这将是AI社区乃至整个社会的一个开眼界的时刻。
它将明确一点:在人类面临来自全能AI的生存威胁之前,我们需要面对一个更平凡的现实,即我们现在与另一种智能共享我们的世界,这种智能有时可能是任性的、不可预测的和欺骗性的——就像我们一样。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-25
重磅开源:这个15k+ Star的项目让调用大模型像喝水一样简单!
2024-12-25
Ollama 0.5.1重磅更新:支持结构化输出,让 AI 回复更精准
2024-12-25
自然语言处理准确率提升70%技巧--微软AI团队的NLTK
2024-12-24
大模型的泡沫什么时候破灭?
2024-12-24
SiliconCloud x Obsidian:高效构建最懂你的AI知识库助理
2024-12-23
LLAMA3 论文精读
2024-12-23
阿里开源agent 开发平台AgentScope
2024-12-22
花60元,DIY了一个AI机器人,能聊天,会认人……
2024-05-06
2024-07-25
2024-08-13
2024-06-12
2024-07-11
2024-07-20
2024-06-16
2024-09-20
2024-06-15
2024-06-06
2024-12-24
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13
2024-11-13
2024-10-07