AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


随笔:通用人工智能大模型行业将迎来大崩溃
发布日期:2024-07-10 06:21:57 浏览次数: 1888



好久不写微信公众号文章了,写个随笔,谈谈最近的思考。
中国人工智能大模型产业,现在正在搞 “百模大战” ,根据公开媒体报道,截至2024年3月,我国共有117个大模型完成了备案。

今天看到一个最新消息,说截止 6 月份,全国共通过备案的大模型服务企业已经达到 162 家
2024年7月4日举行的世界人工智能大会上,百度李彦宏批评了当前人工智能领域的“百模大战”,在他看来,过去这一年多来行业处在非常热闹的“卷模型”之中,一度出现了百模大战的盛况。没有实际应用的基础模型,无论开源还是闭源,都没有价值
李彦宏是从市场价值角度来看通用大模型或者基础大模型,我换个角度,从算力规模角度来分析一下,为什么通用大模型行业将会崩溃,90%的通用大模型企业都会死掉或者退出通用大模型市场


注意啊,这里说的是 “死掉或者退出通用大模型市场,不是说一定会死掉,而是还有“退出市场”这个选项


90%的通用大模型即将死掉或者退出市场,意味着通用大模型行业的大崩溃、大洗牌,大淘汰


是不是很惊悚?


来,让我们看一些现状、预测、数据。


第一部分、现状与分析


第一、通用大模型的参数规模将在2025-2026年达到10万亿



OpenAI 2019年发布GPT-2的参数是15亿,2023年发布的 GPT-4 大模型,总的参数规模已经达到1.8万亿OpenAI首席技术官 米拉·穆拉提 透露,GPT5预计将于2025年底发布,是一个具有52万亿参数的多模态模型。
华为2024年6月最新发布的 盘古Pangu S超级大模型,参数规模达到万亿级
7月份在上海召开的2024 世界人工智能大会,中国本土AI公司阶跃星辰发布了一个万亿参数大模型—Step-2。

阿里巴巴也发布了一个号称10万亿参数的大模型,官网介绍,M6是中文社区最大的跨模态预训练模型,模型参数达到十万亿以上,具有强大的多模态表征能力。


训练一个10万亿参数的通用大模型,需要什么条件?当然是超大规模的AI算力池。
第二、中美两国AI企业正在布局建设10万卡算力池


2023年9月特斯拉建设的1万张H100 GPU集群上线。2024年5月,马斯克宣布建造超级算力工厂,规模达到10万张H100。2024年6月,马斯克宣布其投资的xAI公司计划花费90亿美元购买30万颗 Blackwell B200 GPU。
2024年3月Meta官网宣布建成2个包含2.4万张H100 GPU的集群,2024年底将再部署35万张H100,总算力计划达到60万张H100。
2024年5月中国移动宣布将商用哈尔滨、呼和浩特、贵阳的三个万卡集群,总规模近6万张GPU卡
华为已经在规划十万卡算力池,有可能在芜湖算力中心落地。

2024年3月,英伟达发布B200芯片,拥有2080亿个晶体管,算力达到 2.25 PFLOPS ( FP16半精度 ),比2016年的 Pascal  芯片增长了118倍,是2020年A100芯片的7.21倍,是2022年H100芯片的2.25倍。可支持部署27万亿参数的大模型。 

因此,在超级AI芯片层面,英伟达已经为训练十万亿参数通用大模型提供了关键能力。

那么,十万卡算力池的投资有多大呢?按照B200售价3万美元计算,10万卡算力池需要购买30亿美元的英伟达B200模组或计算卡,如果加上服务器机头、IB网卡、交换机、存储、光纤等设备和配件,预计投资需要40亿~50亿美元,大约折合300亿人民币。如果按照5年折旧,平均每年设备折旧大约60亿元。

根据报道,运行一个10万卡算力集群的能源消耗150MW/年,可计算全年电费支出超过8亿元
所以,问题出现了,中美两国在人工智能领域的竞争,中国是不可能让步的。美国AI企业的通用大模型参数达到1000亿,中国企业跟了。美国AI企业的通用大模型参数达到10000亿,中国企业也跟了。如果美国AI企业的通用大模型参数达到10万亿,中国企业跟不跟?
问题摆在桌面上:跟不跟?
估计还得跟。
问题是:跟得上,还是跟不上?
再进一步谁跟得上?谁跟不上?
中国的上百家通用大模型企业,有多少家企业的通用AI大模型,能跟到1万亿参数?有多少家企业的产品能跟到10万亿参数?
你要跟,但是公司账户里的钱,够买算力做训练吗?
这个问题简化一下就是:你家能不能承担每年8亿元电费?
建设算力集群、运营巨型算力中心,训练通用大模型,从万亿参数的通用大模型开始,已经变成一个超级烧钱的游戏,变成了一个富豪局
没钱,只能出局。
如果非要硬着头皮跟盘,购买算力把现金烧光之后,结果依然是出局。
所以本文认为,中国90%通用大模型企业是没有能力(钱)跟盘的,未来或者烧光现金出局,或者主动退出这个市场。
通用大模型行业即将大崩溃,这是一个典型的灰犀牛风险。
预测2025年,崩溃的迹象开始慢慢浮现出来,一些通用大模型公司静悄悄地不再更新版本,另一些通用大模型公司开始改变产品营销的卖点。这个时候你就知道:崩溃已经到来了。
————————
我这篇公众号文章动笔是在7月7日,今天7月9日看到一个报道:
Anthropic首席执行官Dario Amodei表示:GPT-4o大模型训练花费约1亿美元,而目前正在开发的 AI 大模型训练成本可能高达10亿美元。未来三年内,AI大模型的训练成本将上升至100亿美元甚至1000亿美元。
好吧,虽然我支持这个观点,训练AI大模型的算力投资会越来越高,但是1000亿美元训练一个AI大模型,确实是超出我的认知了。
————————
第二部分、90%通用大模型企业的出路

如果你认为上述分析的逻辑是成立的,那么新的问题出现了:

90%通用大模型企业的出路在哪里?

2024年的政府工作报告,提出加快发展新质生产力;深化大数据、人工智能等研发应用,开展“人工智能+”行动
什么是 “人工智能+” ?人工智能+什么?

华为《智能世界2030》报告中指出:未来将是一个智能世界,AI应用无处不在。

李彦宏在上海世界人工智能大会上提出:没有实际应用的基础模型,都没有价值。应用的价值远比模型本身更为重要。

这些认知都是正确的。

人工智能大模型的终极目的,是服务国家,服务产业、企业、教育、医疗、矿山、制造业、农业、林业、牧业等各行各业“人工智能+”的目标对象,就是各个产业、企业、行业的应用场景。

前阿里云CEO张勇有一句很有名的话所有行业、所有应用、所有软件、所有服务都值得基于新型人工智能技术、基于AIGC各方面技术支撑、大模型支撑重做一遍

因此国家经济和社会发展真正需要的,不是1万亿或者10万亿参数的AI大模型,而是AI技术、AI大模型作为一种新质生产要素,与产业、行业、企业结合,融入原有的生产力和生产关系,演进出来新的高质量生产力和生产关系,改造和提升每个产业、行业、企业。

对于90%的通用大模型企业来说,现在可能面临一种选择,就是改变发展路线,放弃通用大模型赛道,选一个对人工智能提升发展质量有需求的特定行业、企业、产业去合作,去深耕 “人工智能+行业” 、“人工智能+产业” 、“人工智能+企业”。

也许不需要搞1万亿、10万亿参数的大模型训练,就能做出来一个服务某行业应用场景、提升行业生产力的 AI行业垂域大模型,形成该行业的新质生产力,推动该行业的高质量发展。

一句话总结放弃通用大模型,用AI服务行业发展,成为行业的新质生产力

如何避免通用大模型行业发生大崩溃?

答案就是:90%没有那么多钱烧的通用大模型企业,放弃这个赛道,尽早进入新赛道,通用大模型行业也就不存在行业崩溃了。


第三部分、谁能坚持笑到最后

如果中国的通用大模型产业发生大崩溃,谁能坚持活下去,谁能笑到最后?
初步判断:7+X
做出这个判断的依据是什么?
判断标准有两个:
第一、企业集团有没有庞大的主营业务收入和利润,能够长期支撑N万亿参数、10万亿参数通用大模型训练所需海量算力支出?
第二、企业的通用大模型的市场转化情况如何,能不能形成足够的产业化收入,以对冲N万亿参数、10万亿参数通用大模型训练所需的海量算力支出?
一句话:要么是爸爸给钱能养活自己,要么是自己能挣钱养活自己做不到这两点的通用大模型公司,大概率出局。
那么,7包含的公司都是谁,结果就呼之欲出了。
主营业务持续盈利,中国最有钱,也能为通用大模型训练持续烧钱的互联网和云计算企业:腾讯、阿里、字节、百度、华为、京东、快手。
X的名单都有谁?
这个名单就很难判断,因为信息太复杂了。
有一个筛选标准是不变的爸爸很有钱,爸爸给钱花...
我能想到的是:中国移动、中国电信、中国联通、国家电网...
其它还有很多知名的AI通用大模型研发公司,实在不好判断,大概的判断办法依然是:看爸爸
因此,做通用大模型的AI创新公司,如果想要在通用大模型这条赛道上坚持跑下去,可能从现在就要开始考虑找一个富爸爸了
找不到富爸爸的通用大模型公司,建议不要等钱都烧完了,而是从现在就要开始考虑转换赛道,进入行业垂域模型和AI应用服务市场。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询