微信扫码
与创始人交个朋友
我要投稿
端侧大模型(Edge AI models),也就是只在设备本地(如智能手机、IoT设备、嵌入式系统等)运行的大模型,过去一两年来非常流行。
具体表现在,终端设备厂商,如苹果、荣耀、小米、OV等,AI公司如商汤科技,都推出了自研的纯端侧大模型。
端侧大模型存在的意义,就是“以小博大”。
简单来说,和云侧大模型相比,端侧大模型要在本地部署,所以参数规模都不大,不用担心私密数据在推理时被泄露;不需要网络传输,因此响应速度更快;设备原生搭载,不需要租用云资源,用起来更省……
听起来,端侧大模型简直是AI设备不可或缺的标配啊。但实际情况,可能出乎很多人的意料。
我们在调研和使用多个终端厂商的大模型时发现,端云协同、云端大模型,才是大模型在端侧的主流形式。
比如目前很流行的“手机拍照一键擦除背景人物”,仅靠端侧大模型的计算能力是无法实现的,需要端云协同来完成。
再比如公文写作、长文要点总结、PDF要点摘要等,端侧大模型要么无法完成,比如荣耀、OPPO端侧大模型都不支持PDF文本摘要,小米MiLM的支持度和生成效果也不够好。
最终,用户还是要访问GPT-4、文心一言、智谱清言、讯飞星火、KIMI等云端大模型的网页/APP,来满足一些复杂AIGC任务需求。
不难看到,端侧大模型听起来很美,但真正用起来却有点鸡肋。
而随着云端大模型“变大”(走向统一多模态)又“变小”(压缩技术),留给“端侧大模型”的时间,真的不多了。
端侧大模型不是万能的
但没有云侧大模型是万万不能的
目前来看,“端侧大模型”收益和损失这笔账,根本算不平。
先说收益,云端大模型比端侧大模型对用户的价值更大。
端侧AI首先要保障用户体验,先有价值,再说其他。只能在设备本地运行,意味着“端侧大模型”注定不会太大,必然限制了模型本身的性能表现,无法媲美云端大模型。
所以,用户在使用端侧大模型时,要牺牲一部分体验,那么所获得的收益是否更大呢?并不是。
云端大模型的能力变得越来越强大,与不得不“因小失大”的端侧大模型,拉开了更大的体验差距。比如近期OpenAI和谷歌斗得火热的多模态大模型,GPT-4o和Gemini带来令人惊艳的语音交互、多种模态一次生成等能力,处理图片、视频、音频等数据和复杂逻辑,都要在云端运行。
一位国内PC行业的资深从业者曾告诉脑极体,大模型出来之后我们硬件企业就在研究,怎么将大模型跟PC结合,究竟什么是真正的AI PC?结论就是,搭载了GPT-4(代指当下最先进大模型)的硬件,确实可以叫“AI xx”,模型能力才是最核心的。
所以,想做好端侧AI,端侧大模型不是万能的,但没有云侧大模型是万万不能的。
云端大模型不得不用,那端侧大模型也一样非用不可吗?这就要来说说损失了。
不用端侧大模型,并不会给用户带来更大的麻烦。
此前,终端追求搭载“端侧大模型”,主要受限于两点:计算瓶颈、安全顾虑。大模型推理对实时性的要求,云端相比本地的时延更高。此外,手机、PC涉及大量隐私数据,传输到云端进行推理,让很多人有顾虑。上述两点“损失”正在被积极地解决。
比如前不久谷歌I/O大会上,就发布了响应速度快、成本低的轻量化模型Gemini 1.5 Flash。谷歌采用了“蒸馏”方法,将较大Gemini 模型的核心知识和技能迁移到了更小、更高效的模型中,Gemini 1.5 Flash在摘要、聊天应用、图像和视频字幕等多种任务中,有很好的表现,可以在不同平台运行。
此外,本地计算硬件针对AI任务进行优化,也可以提升云端推理服务的流畅度。目前x86、Arm阵营都在积极提升端侧计算单元对AI专项任务的适配度,已经有旗舰和高端手机支持实时运行大规模参数量的大模型。
数据安全层面,终端厂商和大模型企业都推出了相应的隐私安全保护机制,通过“数据可用不可见”、脱敏、联邦学习等多种手段,防范泄露风险。
以一贯注重隐私安全的苹果为例,也自研了端侧模型OpenELM,可在手机和笔记本电脑等设备上运行,但在真正上线AIGC等能力时,据说也将选择与大模型企业合作(国外据传是OpenAI,国内据传是文心一言)。
综上,使用“云端大模型”的收益正显著增大,不用“端侧大模型”的损失却越来越小。这让“以小博大”端侧大模型,显得越来越不划算了。
接下来的故事也不难预测,随着越来越多的终端企业,纷纷把云端大模型塞进设备,纯端侧大模型的存在会越来越尴尬,进入到“不好用-不爱用-更不好用”的循环中。
这端侧大模型
终端厂商是非做不可吗?
你可能会问了,既然端侧大模型不如云端大模型好用,为什么终端厂商还都在下大力气做呢?
客观情况是,大模型必须得有,但终端厂商并不适合做云端大模型,所以端侧、端云协同就成了必选项。
一位国内某终端企业的负责人曾直言:即使我的研发费用再翻一倍,也没法做像ChatGPT、Sora这样的通用大模型,还是会选择跟百度、腾讯、阿里巴巴等伙伴合作。
比如荣耀正在引导百模千态,在手机中接入文心一言等通用大模型,以及高德地图、航旅纵横等行业大模型;华为在PC中接入了文心一言、讯飞星火、智谱AI的通用大模型,同时上线了基于自研盘古大模型的AI纪要功能……
从主观角度猜测,终端厂商做端侧大模型,既有品牌方面的考量,彰显大模型技术的自研能力,也有“将灵魂握在自己手里”的考虑,类似于银行、金融机构、车企希望将数据这一核心优势,掌握在自己手里,打造行业大模型,而非交给大模型厂商。
终端厂商,既希望通过合作云端大模型,拔高AI设备的体验优势,增强产品对消费者的吸引力,又希望通过自研抓住端侧大模型,守住数据护城河,是进可攻、退可守的大模型策略。
我们预计,随着云端大模型的性能、能力在非线性增长,终端厂商的纯端侧大模型,会被拉开越来越大的差距,无法成为消费者的购买决策依据。
不远的将来,能否在设备侧整合优质云端大模型生态,会成为AI终端设备的赛点。
总结一下就是,端侧大模型,终端厂商可以做,但没必要。云侧大模型,终端厂商必须有,且得比人强。
深度协作的不只大模型
还有两类厂商
在一次与华为终端的交流中,对方提到:华为是唯一一个云侧通用大模型、端侧大模型全自研的终端厂商(指盘古大模型),这给AI硬件奠定了很好的基础。比如要完成一个复杂的AIGC任务,可以拆分为云、端、边缘等并行训练,兼顾推理效果、运行速度、数据安全等。
需要说明的是,上述思路仍处于概念验证阶段,目前我们还未能在华为终端设备上体验到盘古大模型从云到端的深度整合。但这一理念,在逻辑上确实是说得通的——通过端云高效协同,可以建立起无短板的大模型产品力,打动AI硬件的潜在消费者,而这离不开终端厂商和通用大模型厂商的深度合作。
端侧大模型和云侧通用大模型全自有的终端企业,确实具备紧密融合的先天优势,不过,其他厂商也可以通过开放生态补足,形成一个更全面的模型生态。
这对双方来说,是一件互利共赢的事情:
通用大模型厂商,需要借助终端厂商的庞大设备生态,作为大模型落地的土壤,回收基座模型的庞大投入。借助端侧的设备数据,更好地解决大模型的幻觉问题,推动模型进化。
而终端厂商,需要通用大模型(尤其是尖端版本的云端大模型)作为体验支撑,为用户提供最先进的AIGC应用和体验,避免在基座模型上投入太高的研发成本,也避免在AI体验上被其他终端厂商拉大。
在此基础上,终端厂商和云端通用大模型厂商还要抓紧解决的重点问题:
安全问题。如何在保证隐私数据的基础上,学习设备数据,明确数据权益与责任归属,对数据产生的商业收益建立合理的分配机制。
开发者分利政策。无论是手机的AI应用,还是云端大模型的AI应用,都需要开发者来完成。终端开发者生态和大模型开发者生态的进一步打通,也会增加对开发者的吸引力,加速AI应用的孵化。那么,如何共同赋能并分利给开发者,将成为两类厂商合作与博弈的关键。
今年上半年,我们见证了通用大模型的诸多突破,留给端侧大模型的时间已经不多了,留给终端厂商构建大模型共同体生态的机会窗口期,也并不会太久。
下半年,我们或将见证一场“终端厂商+大模型厂商”携手的“阵营战”。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-04-11
2024-08-21
2024-07-09
2024-08-13
2024-07-18
2024-10-25
2024-07-01
2024-06-17