AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


对话李彦宏:智能体正在爆发,大模型对B端影响将超越互联网
发布日期:2024-07-06 08:04:42 浏览次数: 1738


人工智能正在以前所未有的速度席卷全球,去年业界打响“百模大战”,聚焦于AI的iPhone时刻,走到今年,大规模的落地应用已经成为新的竞技场, AI应用卷起来了,价格战硝烟四起。


一系列的变化意味着大模型的商业化正在提速。围绕大模型的下一步,业界展开了激烈讨论:开源好还是闭源好?C端和B端谁先迎来AI应用的爆发?超级应用什么时候出现?大模型的落地还面临哪些挑战……近日,第一财经总编辑杨宇东与百度创始人、董事长兼首席执行官李彦宏,硅谷101的联合创始人陈茜展开一场对话,共同来探讨大模型的未来之路。 

“超级能干”的应用比 “超级应用”更重要


杨宇东:ChatGPT掀起的热潮已经一年多了,接下来超级应用什么时候出现?国内面向C端的大模型产品形态看起来大都是问答模式,未来有没有可能产生差异化的竞争?


李彦宏:准确地讲,我倒不是说一定在等待一个超级应用的出现,我更觉得,在基础模型之上应该能够诞生数以百万计的各种各样的应用这些应用有些是很小的领域,可能是大家不太容易想到的应用,但是它对于那个领域的问题解决比以前好很多


也有可能出现用户量庞大、用户时长非常长的类似于移动互联网的超级应用,现在还没有看到能够比肩移动互联网时期超级应用那样的AI原生应用。但我们已经看到越来越多的在各种各样场景、尤其是To B场景,利用大模型提升效率、产生更多的收入,或是能够节省更多的成本的情况出现。


尤其是今年以来,我们看到在各行各业都有AI的应用场景出现了,使人力大规模节省,或是效率大规模的提升。也许对于投资者、对于创业者,没有觉得这很令人兴奋,因为大家都在想,我能不能有一天从0到1做出一个人们想也没想到过的东西,变成一个DAU10亿的超级应用,这个当然很重要,假以时日也一定会出现。但是目前已经看到的,甚至是更重要的是大模型在各个领域、各个场景的应用。


从百度文心一言的日调用量来看,已经非常明显了。我们在4月时曾公布过文心一言的调用量每天有2亿次,到前几天文心一言调用量已经到了5亿次,也就是说两个月的时间,调用量翻倍


调用背后意味着什么?意味着它在给应用产生价值。这种增长速度还是非常令人兴奋的。大模型对于实体产业,对于各行各业的提效降本这些作用现在已经非常明显了。


杨宇东:你更多是谈到了垂直行业,百度还是有很强C端基因的公司,作为一个普通的用户会有什么样很好的场景?


李彦宏:我觉得分两类,一类是大家比较关注的,过去从来没有过这些应用而现在比较流行的,类似于ChatGPT,我们把它叫做ChatBot(聊天机器人),国内每一个大模型公司,都会推出一个相应的APP或网站来做ChatBot,它的作用也比较明显,很多时候如果你丢给它一个很具体的问题,它会给你一个还不错的答案,而且准确率也越来越高了。很多人逐步对ChatBot产生依赖。


对于现有的这些To C的应用,其实信息增益作用非常大。我们在4月的时候公布过一个数据,百度搜索有11%的搜索结果会由AI来生成的,这个比例还在不断的提升。


也就是说,现有大家比较常见的应用,其实也越来越多地在被大模型、被生成式AI所改造。另外一个例子,过去百度文库大家是在上面找一些现成的文档,今天经过大模型改造之后,已经更多地变成了生成式AI应用,不管你想要产生什么样的文档,PPT、论文甚至是漫画,它都可以根据你的要求来生成,而且它是收费的产品,今年以来已经有大约2600万付费用户。你如果说用超级应用的标准来看,它也没有到超级应用的水准,但要是看它实际产生的价值,有那么多人愿意为这个产品来付费,还是很厉害的。这些产品都是过去已经存在的,只是经过了大模型改造之后,它的能力跟以前完全不一样,人们对它的认知也在不断地迭代、加深。


陈茜:我同意您最近在多个场合强调的,去卷AI的原生应用,这样大模型才有意义。同时我也有一点小困惑。比如说OpenAI的GPTs在8个月之前就推出来了,当时大家都会觉得,我们AI应用时刻要爆发了,但是8个月之后的今天,我们看到还没有爆发,可能很多应用出来也不太尽人意,最近最火的就是AI搜索perplexity,现在是2000万用户的量级,也还没有到所谓的Super APP、Killer APP,我的疑惑在于,如果基于GPT4的模型能力,是不是我们现在还没有到去卷应用的时候,这个时刻还没到?


李彦宏:对,刚才你提到了GPT,以及perplexity,还是我刚才说的第一类,过去从来没有过的东西从0到1去做,这样的超级应用确实现在还没有出现。即使ChatGPT的DAU也没有过亿,算不上一个真正的超级应用,但是对于现有产品的改造,无论是中国也好美国也好,我们都看到了实实在在的增益,比如美国微软的Copilot已经收到了很多费用。美国更多的是To B的行业,Palantir、Snowflake这些软件都是通过被大模型、被生成式AI加持之后,业绩得到实实在在的增长。


所以从这个意义上讲,大模型应用其实已经逐步在浮现出来,它对于现有业态的改造作用,比从0到1颠覆作用更早到来更明显,甚至我觉得也是能够创造更多价值的。


以前萨提亚说,过去互联网叫做AutoPilot,想要什么东西,你自己就把这个结果给弄出来了,现在的生成式AI叫Copilot,它实际上是人和机器共创的过程,这个过程一开始大家觉得没有那么性感,但是它对于人的工作效率的提升、成本的下降,对于打开新的可能性,产生的促进作用其实是比那些从0到1要更大。


只是大家好像觉得说没有新鲜感,或者它更多诞生在生产力场景,受众群体不会过亿过十亿,尤其在C端,在公众层面的体感没有那么集中,这可能是大家现在一直想寻找一个SuperAPP的原因。


杨宇东:你的问题是挑战Robin,Robin说要卷起来,你说怎么没看到卷。听Robin讲完我总结下来,“超级”这两个字一个是数以百万计的应用已经开始起来了,二是所谓的超级反而是在垂直、局部的领域,有非常显著的加速度或者是增益。


陈茜:或者是“超级”的定义在互联网时代跟在AI时代是不一样的。


李彦宏:是不一样的。在互联网时代可能是某一个单一的从0到1,或者是到100这样的应用,今天这种所谓的超级应用,它对现有场景的一种加持,这种加持还在早期,我必须得承认,它逐步会改变现有产品的形态。


我再举一个例子,小说创作、网文是在国内特别火的行业,过去就是靠作者自己的能力和想象不断更新一篇小说,效率是很低的。现在有了大模型的加持,基本上有一个构思,它就会给你相应的文档,根据你的想法不断调整。在用户看来,仍然是在读一篇网文,但是小说的生产成本、生产效率,它的内容丰富度、可读性、优良率等等,都跟以前不一样。这样的例子,其实我们在几乎任何行业都能够看到。


杨宇东:我们前面聊的总结一下叫卷应用,接下来还有一个关键词叫智能体,你说过好多次,AI时代最看好的是智能体,但是目前来看好像也没有特别强大的爆发。你为什么认为智能体是AI时代未来的趋势呢?


李彦宏:我觉得智能体正在爆发只是说它现在基数还比较小的时候,大家的体感没有那么强烈。但是你要看业界大模型公司,都在做智能体,都在看好智能体。


智能体为什么代表未来?基础模型本身是需要靠应用才能显现出来的价值。智能体就是一个几乎可以是放之四海而皆准的基于大模型的应用根据我自己的场景,我设定一个角色人设,连编程都不用,只要把我想要做的事情跟它讲清楚,有时候要把自己的私有知识库对接进来,或者说把自己做事情的套路给它说清楚,专业术语叫做工作流,把工作流套进去后它就是一个非常有用的、跟基础模型不一样的东西。今天大多数AI的原生应用,用智能体的方式都可以做出来,做出来之后效果也不错。


由于它的门槛足够低,意味着越来越多的人可以做出他想要的智能体来,这有点像90年代中期的互联网网站,网站你可以把它做得非常复杂,但是仍然读书的大学生,也可以做一个自己的HomePage,链接上常用的几个网站,就是他自己的网站。由于做网站很简单,所以在90年代中期到末期诞生了数以百万计的网站,经过大浪淘沙,最终会出来一些非常优秀的网站,像Google、Facebook。早期你可能看到的都是,这些网站怎么乱糟糟的,一个大学生就能做一个网站有什么价值?但是你必须得门槛足够低的时候,让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它就是一个Supper APP、这就是为什么,我觉得智能体代表未来,我特别看好的一个新兴的业态


陈茜:在美国硅谷智能体AI Agent也是特别重要的概念,在业界大家对AI Agent,它的定义还是有一点不同的探讨,有些人说比如说GPTs,也都是一些智能体,有些人会说,可能更加高级一点的Agent才算智能体,要调取不同的工具、要成为一个虚拟世界的机器人它可能才叫Agent,你对Agent的定义是什么样子的?


李彦宏:我刚才也讲了,我首先要考虑门槛要足够低。就一个小白,比如说大一的学生,他也可以很方便地能够制作一个智能体出来,当然在此之上,可以有各种各样比较fancy的玩法,刚才你讲的调用工具、反思、长期的记忆等等,这些能力会逐步加进去,这跟90年代时候的网站诞生过程也有类似之处。我们一开始的网站都是很简单的,后来说我可以用Java把一些动态的东西放在网站里,后来也可以加上cookie……一旦有越来越多的人在生产网站,技术就会跟进说,你有什么需求,我去解决你的问题。


Agent是一样的,不是说用了最先进的能力之后才叫一个AI Agent,我反而觉得我们要把门槛降得足够低,让大家觉得我也可以搞一个AI Agent,进来之后随着时间的推移,随着你遇到新问题,解决问题的过程,会把各种各样最先进的技术用进来。


说实话,我认为现在AI Agent用到的这些能力仍然是非常初级的。未来还会产生我们今天想也想不到的Agent能力,但是这些能力的诞生,反而要依赖数以百万计的开发者,去开发各种各样的应用,在他们使用的过程当中产生新的需求,这些需求被解决的过程就是一个创新的过程,就是AI Agent进化的过程这个我还是非常期待的。


杨宇东:这个特别像我们一个报道,在法律领域,好多创业公司想说,我要用AI做一个个人法律助手,但是一直没有好的产品,真正拿到融资的AI法律产品还是面向企业客户的适合合同审查场景的产品,因为这个场景足够标准化而且有人买单。所以像这种一开始的初级产品,越做越复杂,越做越好的时候,可能最后像Robin说的,真正意义上的个人法律助手的产品就出现了。


陈茜:百度有什么比较有意思的AI Agent的案例可以给我们分享一下吗?


李彦宏:国内高考是一个非常大的事件,学生、家长都非常重视。过去大模型在干什么呢?高考有个作文题,我们用大模型来写一个作文,看它能得多少分。其实你想一想,这个东西在哪用呢?不可能让一个考生带着大模型去参加高考嘛。但是高考完了之后,你要估分、报志愿,选学校和专业,可能还有人在乎宿舍几人间,学校有没有游泳池,或者说哪个专业更适合我未来发展,每个人的情况都是不一样的,问题也都是不一样的。这种情况下,哪有一个全能的辅导老师可以告诉你说,你最适合的是哪个学校哪个专业?但是AI Agent就可以干这个事情。我们开发了一个高考填报志愿的AI Agent。在高峰时期,一天有200万人在使用。高考考生也就1000万左右,一天使用的人数就有200万人,足见大家对这个东西的认可度和依赖度还是非常高的。


再比如刚才讲到法律,我们还有一个智能体的法行宝,它就是一个法律援助方面的AI Agent,我有什么诉求,跟我类似的判例都是哪些,我该怎么去写一个法律文书,全都是不一样的。过去大家来百度或者其他地方去搜索,都是找世界上已经存在的内容文档、视频到底是什么样子,没有专门为这个人在这个时刻、这个地点、环境生产一个文档或内容,而今天的AI尤其是智能体就可以做到,然后根据你的情况生成一个法律文书,这样的例子非常多。


大模型对B端影响将超越互联网


杨宇东:你说过大模型对于B端,对于这些领域的影响会超过互联网,接下来你认为,哪些垂直领域会受大模型的影响最大?


李彦宏:其实你想一想,互联网对C端的改造,我们都是感同身受的,是非常彻底的,是颠覆性的。但是互联网对B端的改造,其实我觉得一般,用的技术比较简单,产生的增益也没有那么明显。


但是大模型确实不一样,刚才提到的那些应用,比如小说创作,读小说叫做C端,小说创作就可以当做是B端,法律援助其实在帮助律师在提升效率。我们接触到的一些能源电力行业,生产制造业等都有类似的需求。还有像现在国内电动车卷得也很厉害,车里对话系统很多也在用文心大模型。但对于百度来说,这就是一个To B的应用,我们不直接提供给用户,它是经过了OEM、经过了车厂集成之后把应用提供给了终端消费者。这种事情非常多,而且我们看调用量如果上得很快,这就说明我们的客户需要这些东西,B端靠着大模型和AI原生应用产生了价值。


杨宇东:最近我跑制造业比较多,很多企业家觉得未来AI对于高端制造业、智能制造是一种革命性的突破,但是一直搞不明白,比如说通用大模型和我自己的行业垂直领域、垂直大模型,将来到底是什么样的关系?你说到的OEM,到底是什么样的供应商,和平台型的大厂商之间形成什么样的业务链条,这个问题是制造业,尤其是先进制造业特别关注的。


李彦宏:对!这个问题确实很重要。实际上涉及到大模型在各个垂直的场景里怎么用。这件事情我们也经过了探索过程,最初我们的想法是把这个基础模型做得越来越强大,大家叫通用人工智能,在什么场景我都能做得很好。后来发现这件事情没有那么容易,每个场景都有它自己的道要求也不太一样。有些场景下,大模型思考两分钟再给我结果也OK,只要结果准确、全面就可以了。但是有些场景,如果你一秒钟不出结果,用户就放弃了。


这两个场景对大模型要求是不一样的,今天即使是最强大、反应最快的模型还不能做到。所以当应用场景需要反应快的时候,我们需要更小的模型,它由于没有大模型通用的能力,在垂直场景当中还要做精调,就是做SFT,把行业的数据怎么去灌进去,再经过各种各样的调教,在特定场景里的效果跟大模型差不多。


类似这种场景,我们也见了很多、去年10月份,我们发了文心4.0之后,主要精力就是根据最强大的模型,去裁剪各种体量的小模型。比如十亿、百亿、千亿量级的模型,有的也许擅长角色扮演,有的模型也许擅长逻辑推理等等,根据客户的不同使用场景不同要求,出来各种各样的模型。这些模型的大多数速度都比EB4要快,推理成本更低,这种应用是大家更爱用的

即使到今天,我刚才讲的5亿的调用量,调用量最大的一定不是最强大的模型你要看市场需求的话,规模更小一点的模型,市场需求量是更大的


杨宇东:帮我们介绍一下,这种大模型在B端的应用有哪些比较成功的商业案例?


李彦宏:比如说电商的数字人直播,通过大模型来生成一个直播的话术。比如说我要卖一个营养品,是在哪一年、哪个大学教授做了多少实验出来的结果,这些数据自然人很难去记住,但这些数据恰恰能够很好地说明营养品到底有什么作用。这些内容靠数字人把它表达出来,很多时候比真人的直播效果反而要更好。


杨宇东:还有一个有趣的问题,我们这两年主要是生成式AI大行其道,比如金融、医疗、法律这些领域,C端和B端直接有非常好的交互场景,但是大家也开始担心了,生成式AI有幻觉问题。尤其做金融的,不大敢让AI帮助客户来做决策,一旦碰到严谨性问题的时候,怎么破解这个难题?


李彦宏:其实我们只要回顾一下过去这一年半的时间,大模型发展的历程,我相信你的信心会大增。一年前,如果你跟大模型进行交互,去问它一些问题会经常发现幻觉问题。今天你在用的话,尤其是用最大规模,最强大模型的时候,已经很少出现幻觉问题了


因为随着技术不断地提升,一开始纯粹于原教旨的Transformer去做出来的大模型,确实是非常难避免幻觉,要解决这个问题,就要在原来Transformer架构上增加一些东西,专业词语叫RAG,稍微借助一点工具就可以消除这样的幻觉,随着你使用这种工具的能力越来越强,你就会发现,在各种场景下,幻觉是越来越少的。


当然,今天这种生成式人工智能更像是一个Copilot,在特别严肃,对准确度要求特别高的场景下,我们还不能让它全部自动去实现,还要靠人把最后一道关,这样的话,一方面效率提升,另一方面,在准确度上,在消除幻觉上也能够起到比较重要的作用。其实我们也必须承认,人也有错的时候,甚至有时候这个错误率更高,我们也不能够完全避免,


陈茜:现在企业们是否愿意去为AI去付费,现在你在跟一些企业客户交流的时候,他们的态度是什么样子的?


李彦宏:当你处在市场经济环境当中,这些企业其实非常理性。尤其是中小企业的账是算得非常精的,如果这件事情能够让我降本增效,能够让我赚到更多的钱,那我就会用它,如果不能,你再吹破天我也不会用。其实市场会告诉你这个大模型到底有用还是没用,我们看到调用量的迅速提升,确实是因为在用户侧,在客户侧,它为企业确实产生了降本增效的作用。


我再举个例子,比如说在招聘场景,很多时候雇主要找一个具备什么技能的人,对于技能的描述千差万别,过去是HR坐在那儿,一份一份简历筛查,面试100个人,最后筛出来10个人来,再进行下一步的面试,效率是非常非常低。但是大模型进来之后,它可以非常明显地去提升这方面的效率,有了这样的场景之后,你去算一算模型的推理成本,其实几乎是可以忽略不计的。尤其在国内,现在大模型价格战是非常厉害的,所以像一些比较轻量级的模型,百度的轻量级模型都是免费的,这个免费不仅仅指的是模型免费,实际上算力也送你了,你本来要有电脑,我得要有带宽等等,这些都没有了,你只要来用就好。


陈茜:有一个比较好奇的问题,在互联网时期,SaaS在中国To B没有做起来,为什么您会觉得在AI时期,这个AI as a service可以在中国做起来呢?


李彦宏:我觉得在SaaS时期,之所以没有做起来,更多的是因为比如说像互联网大的平台,既做了To C的事,也做了To B的事比如今天大家都到电商平台去购物,平台商家所需要的To B的能力电商平台都替他做了。在某种意义上讲,其实中国并不是没有这样的需求,而是说这些需求,被更大的平台所满足掉了。


但是在AI时代,情况又发生了变化,它不是从0—1的,恰恰是对于现有业态的增强。当现有业态被增强、效率越来越高的时候,它就更能够抵御类似于像互联网平台对它这种业务的侵蚀。我倒觉得AI的这种To B的需求,在中国会比互联网To B的需求要大很多。


开源是一种“智商税”


杨宇东:我们还感兴趣一个问题,就是其实现在行业里面争议很大,开源还是闭源,现在看到开源的大模型越来越多了,而且甚至有些能力都不亚于GPT4了,就这个问题你怎么看,还坚定走闭源路线吗?


陈茜:在国际上对开源闭源大家也争论得很厉害,马斯克吐槽OpenAI叫Close AI好了,我们看到马斯克的XAI也开源了,为什么你对闭源这么坚持?


李彦宏:我觉得开源其实是一种智商税。仔细想一想我们为什么要做大模型?是它能够有应用,这些应用在各种场景下能够为客户为用户提升效率、降低成本。所以当你理性地去想大模型能够以什么样的成本给我带来价值的时候,你就会发现你永远应该选择闭源模型无论是ChatGPT也好,文心一言也好,以及各种各样的模型,你看一下它的平均水平,一定是比这些开源模型要更强大的,推理成本也一定是比开源模型更低的


尤其在国内的话,我们连算力都送你了,所以当你想要一个开源模型的时候,你得把这个模型拿过来根据场景去做SFT,很可能还要做安全上的对齐,根据场景去准备各种各样的数据,做一轮轮的迭代,最后由于是你独有的模型,没有办法跟别的应用去共享算力,最高峰的时候用多少那就要准备多少算力,这是非常非常不经济的。


反过来你用一个闭源的模型,算力可以和大家共享,这些能力在同等的参数下,闭源模型一定比开源模型的力量更强。同等能力下,由于闭源模型可能参数规模会更小一点,它的推理成本就会更低。所以长久来看,我觉得闭源模型使用一定会超过开源模型


当然,我也不能说开源模型没有存在的价值,其实比如说从学术研究的角度,或者是高校学生想拿来练练手……在这些场景下,我觉得有它的价值,但如果你是一个企业,要的就是大模型能够带来价值上的增益,只要一算账,就会发现开源模型是没有机会的


陈茜:闭源大模型再加公有云集合不同的闭源、开源模型供客户去调用,你用这样的一套打法,对To B客户来说有什么考量吗?


李彦宏:To B的客户,他要选择的是一个性价比最好的模型。一方面,模型要对他的应用产生价值,另外一方面,成本要足够低。很多时候,你看着有用,一算成本不划算,客户就放弃了。这是为什么我刚才讲,开源模型打不过闭源模型。你只要理性的去看待,你的收益是啥,你的成本是啥,你就会发现,最好还是去选择闭源模型。当然,闭源模型不是一个模型,它是一系列的模型,根据你的使用场景去平衡一下,要多好的效果,要多快的推理速度,要多低的成本。模型有非常多的变种,可以根据用户的需求,让他来做选择。
闭源模型还有一个开源模型不具备的优势:这些相对来说规模更小的模型,都是从最大最powerful的模型裁剪出来的,
裁剪出来这些更小规模的模型,仍然比那些同样规模的开源模型要效果更好 


价格战不可避免


杨宇东:用户最终的选择还是会看性价比。现在才一年多的时间,价格战已经开始打起来,闭源大模型的API调用的费用越来越低了。在这样一个商业环境之下,大模型靠推理收费的商业模式未来成立不成立?以后我们市场再去比拼大模型的话,会比拼哪些点?


李彦宏:说实话,我们也在内部不断的在思考,在讨论这个问题,价格战我觉得几乎是不可避免的,在中国互联网干了这么长时间,其实已经对价格战非常熟悉了,但就像你讲的,确实它来的比我想象的还要更早一点,这么早就开始把这个价格打到了几乎不可思议这种低的地步。但我觉得某种意义上讲也不是坏事儿,当你足够低,甚至免费的时候,就会有更多的人有积极性来尝试在大模型基础上去开发各种各样的应用。也就是说大模型对于各行各业的渗透速度会更快


你都免费了,或者说价格足够低,大模型公司靠什么赚钱?我是这样想的,大模型天花板还是很高的,技术的天花板,在今天我们还是对于大模型的能力有很多不满意的地方,仍然需要很多非常优秀的技术人员,需要很多的算力,需要很多很多的数据才能够训练出来下一代大模型。


所以最终大家是要去拼谁的技术更好,你的技术好,你为客户产生了更好的价值,将来你还是能够收到费的。今天之所以把模型价格打到足够低,是因为现在模型的能力其实还没有到最好。那没有到最好的时候,大家都差不多的时候,那就拼价格,谁的价格低就用谁的。时间长了之后,市场本身会回归理性,同样的效果,就是当我的成本比你低的时候,那你打价格战你肯定打不过我,时间久了之后你就退出了。


这个过程我们在百度网盘上是经历过的。那些年大家在卷网盘的时候,今天给你10G的免费空间,明天你给我100G的免费空间,后天说无限空间永久免费。当你说无限空间永久免费的时候,大家也会说这怎么能够持续呢? 后来慢慢地一个一个退出。为什么百度没有退出呢?因为我敢打,我的技术好,存储成本低。


陈茜:你觉得价格战还会持续多久?


李彦宏:这个很难讲,现在有些创业公司是玩家,也有很多非常大型的这种互联网平台公司是玩家,烧钱的话,理论上讲是可以烧很长时间的,但我觉得烧钱不是这件事情的本质,本质仍然是谁的技术更好,谁的效率更高。当你的技术好、效率高的时候,你就不怕去打价格战,所以多长时间都OK,最终它会是优胜劣汰的一个过程


陈茜:价格战过后,你觉得未来在中国市场会是一个赢家通吃的局面吗?还是说价格战之后会剩下几家主要的玩家?


李彦宏:这次生成式AI对于整个IT技术栈是一个大变革,我们一般认为过去的IT技术栈就是芯片层、操作系统层、应用层或者软件层这三层。到生成式AI之后,我们认为IT的技术栈变成了四层,芯片层、框架层、模型层、应用层,我认为在每一层可能都会诞生至少2—3个大的玩家。应用层可能数以百万计,甚至数以千万计的各种各样的应用都会出来,也会逐步地出现超级应用超级应用不会很多,可能就三五个。模型层我觉得也许两三个就足够了,因为最后还是大家比拼的还是效率。


Scalinglaw短期内不会被颠覆  


杨宇东:我们谈到规模和能力,最近开始有不同的声音出来了,确实看很多行业做一些小的模型的速度更快,效率更高,大模型的Scalinglaw会不会这么快又被颠覆掉?


李彦宏:我觉得Scalinglaw本身可能还会有若干年的生命周期,但与此同时,会在此之上会叠加出来各种各样的创新。刚才讲到智能体,仍然是基于Transformer这类大模型在做,但未来再过一两年还会出现什么新的技术创新,在此基础上再去叠加,我们也不知道,大家都在探索。换句话说,我觉得Scaling law短期之内倒不会被颠覆,但是在Scaling law之上会叠加出来很多我们现在可能还无法想象的创新


陈茜:那你觉得接下来大家在卷应用之余,会不会开始卷一些中小模型,在国际上比如Mistral这样的中小模型也是受很多开发者欢迎的。百度在中小模型上,还有一些模型蒸馏上有什么的计划?


李彦宏:我们看到的真实需求,确实在绝大多数情况下都不是最大的模型,它都要求这个模型变小。变小意味着什么?速度快,成本低,当我干这个事儿能带来每年100万的增益,但一算最大的模型要120万的成本,那我肯定不干了。那我给大模型公司的要求就是要把成本降到80万,甚至降到8万。那我们就得想,怎么把最强大的模型蒸馏到足够小,也就是成本足够低的时候,仍然能够满足特定场景的需求。我觉得这方面闭源模型仍然有优势,因为闭源有最强大的基础模型,它根据这个模型蒸馏或者裁剪出来的小模型比那些开源模型更有优势。开源模型不管是用更大的开源模型来蒸馏还是怎么样,但当你基础没有别人好的时候,做出来的东西在竞争力上会有劣势这方面我们看到真实的需求确实非常多,也认为这方面的机会仍然在闭源不在开源


陈茜:GPT—5一直在延后,担忧的声音越来越高,比如5—10万亿这样的参数加上去,担心它的效果并没有实现跃升,是不是会打击一些人对Scalinglaw的信仰?也就是我们的AGI可能没有办法用Scaling law的方式实现了,你对这个有担忧吗?


李彦宏:我不是很担心这件事情,我觉得大家应该更关注应用,而不是关注基础模型,某种意义上讲,基础模型迭代速度稍微放缓一点不是坏事儿今天的这些应用开发者,有一个相对稳定的基础模型来开发应用其实效率更高。如果模型天天在那儿练,他每天都要重写一遍过去的代码,是很累的。但是在现有基础模型上不断去做微调,去做一些渐进式的迭代和创新,其实是一直在发生的。


但是长远来讲,我确实认为下一代的大模型一定会比现在这一代模型强大得多什么时候推出来我不是很着急,我们应该更多地去看一下真实的市场需求是什么如果我们认为AGI 10年都达不到,也就是说它有擅长的和不擅长的地方,如果它擅长的恰好不是市场需求的,那这个意义不大;如果他不擅长的恰好是市场需求的,那我们浪费了很多资源去做一些不该做的事情,这是为什么我更关注应用。当市场需求不是很清楚的时候拼命往前跑,去做一个名义上更强大的模型,其实很有可能是会走弯路,是浪费资源


杨宇东:你之前说距离AGI还有10年时间。你个人认为AGI实现的标准是什么?还有哪些路径可以让我们更快地通向AGI?


李彦宏:确实业界没有一个标准答案。以前大家觉得通过图灵测试就实现AGI了,实际上现在大模型已经通过了图灵测试,但是人们所说的AGI不只是通过图灵测试。在我的心目中,AGI是说机器或AI能够具备人在任何场景下所具备的能力,这是一个很高的要求。


我们做无人驾驶有11年的时间了,仍然不能说这个技术成熟,这还是一个专用场景,AI都做不到非常的成熟。所以说真正要实现AGI,我认为确实是还需要很多很多年


但是就是业界有人说AGI可能再过2年的时间了,或者再过5年,说什么的都有,但是我自己的判断是10年以上,也许10年,也许20年,也许更长的时间。很多人在讲AGI是一种信仰,当你把它当做一种信仰的时候,谁的信仰会明年就实现?这是自相矛盾的。如果是一个信仰,它就是你值得为之长期奋斗的一个目标


杨宇东:好的,最后轻松一点,您能不能推荐一下最近读的一本书或者论文,关于AI方面特别有启发的,给我们大家推荐一下。


李彦宏:我最近没有怎么读论文或者是书。首先书太慢了,大模型技术包括大家认知迭代的速度非常非常快,等到成书的时候,基本上已经过时了。为什么论文我也读得少呢?一方面我们公司有一大堆人都在读论文,我很多时候就是读一些摘要,时间有限,每天出来的新东西实在是太多太多了。另外一方面我也觉得其实我们应该更关注市场信号,更关注真实的需求在哪里,而不是理论又往前推进了多少。如果大家都靠理论去指导实践的话,根本就不会有飞机出来,是飞机出来之后,大家研究为什么比空气重的东西还能在天上飞,其实有一个理论叫做空气动力学。很多时候实践是反而是领先理论的,我们要更多地看市场有什么需求,我们怎么去更高效地去解决这些真实的市场需求。


杨宇东:对,它是种基本的原动力,来自于实践,来自于需求。推动了理论,推动了科技的发展。


李彦宏:没错。


杨宇东:非常感谢一个多小时的时间,我们演播室对面就是徐汇滨江,非常漂亮,告诉大家一个很让人开心的消息,马上会建成一条缆车的索道,横跨江两岸。我们也期待以百度为代表的优秀公司,早日为我们建成人类通向未来的AI桥梁,谢谢。


李彦宏:好,我们努力,谢谢。


陈茜:非常感谢。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询