AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


【不看后悔】一文梳理端侧模型和小模型
发布日期:2024-07-07 11:20:09 浏览次数: 3991


在AGI技术飞速发展的今天,大模型技术的突破为我们带来了无数的惊喜和可能。得益于端侧AI芯片的进步,如昨天文章中介绍的苹果M4芯片【地表最强端侧芯片:苹果M4】,端侧模型和小模型正逐渐成为备受关注的焦点。它们各自具有独特的特点和优势,为人工智能的应用和发展开辟了新的道路。

端侧模型与小模型的定义与区别

端侧模型:通常指的是部署在手机、电脑、或其他移动设备、嵌入式系统等资源受限设备上的模型。这些设备的计算资源(如 AI 算力、内存等)相对有限,同时对端侧的能耗、发热等问题有着更为严格的要求。因此,端侧模型需要经过特别设计,以减小模型大小和优化模型架构,从而能够在端侧设备上高效运行。

小模型:一般指的是参数规模远小于一些大型语言模型(如 GPT-3 或 Llama-13b)的模型,常见的参数规模有 1.5b、3b、7b 等尽管参数较少,但通过特定的设计和优化,小模型依然能够在某些任务上实现与大型模型相近的性能,同时降低计算资源消耗,提高能耗比。

虽然【端侧模型】和【小模型】不能直接等同,但在当前手机、PC 等终端设备计算资源有限的情况下,两者存在较多重合领域。学术界对小模型的技术研究较为深入,而产业界则更侧重于端侧模型的工程化研究。

小模型的三大技术流派

目前,在全球备受瞩目的小模型和端侧模型中,Meta、微软、苹果等发布的模型颇具代表性。由于小模型的总体技术方案并没有形成产学研共识,目前小模型主要可以分为三大技术流派:

暴力美学派:以 Meta 的 Llama-3 为典型代表。Llama 是大模型领域市场认知度极高的开源大模型系列。2024 年 4 月,Meta 在官网通过技术博客正式发布了最新的 Llama-3 系列大模型,其在主流榜单上成绩斐然。Llama-3 有 80 亿(8b)和 700 亿(70b)两种参数,而据 Meta 透露,其 4000 亿(400b)参数的 Llama-3 模型仍在训练中。

Llama-3 在模型架构上与上一代 Llama-2 差别不大,但训练数据规模有了惊人提升。其训练数据量达到了令人咋舌的 15 万亿(15t)tokens,竟是 Llama-2 的 7 倍。要知道,根据 Chinchilla Scaling Laws 定律,对于一个 8b 的大模型,最优训练数据规模仅为 0.2 万亿 tokens。如此大量的数据投入堪称数据“暴力美学”,也确实让 Llama-3-8b 在同等规模的模型中表现出众。Meta 研究人员还表示,15 万亿并非终点,在对 Llama-3 训练超过 15 万亿规模的数据后,模型仍展现出对数线性级(log-linearly)的性能提升。

精耕细作派:微软的 Phi-3 则体现了不同的训练数据思路。Phi 是微软旗下专注于开源小模型的系列。Phi-1 与 Phi-2 系列的模型参数规模都不超过 3b,却表现出色。Phi-3 系列于 2024 年 4 月发布,不仅继续将研究重心放在小模型上,其技术论文标题更是直接表明——《Phi-3 技术报告:一个能在手机本地运行的高性能语言模型》,明确瞄准了端侧 AI。

Phi-3 系列包含 phi-mini-3.8b、phi-small-7b、phi-medium-14b 三个版本。在训练数据设计上,Phi-3 与 Llama-3 分歧较大。根据技术论文,Phi-3 的训练数据仅为 3.3 万亿 tokens,不足 Llama-3 的四分之一。然而,Phi-3 研究人员对这 3.3 万亿的数据进行了深入的数据工程研究,严格把控高质量数据的筛选。这一思路源自微软 Phi 系列开山论文《Textbooks Are All You Need》中的高质量数据集路线。在该论文中,微软用规模仅为 7b token 的“教科书级高质量数据”训练出 1.3b 参数的 Phi-1,并延续了这一策略。

Phi 系列在训练数据领域的“精耕细作”与 Llama 系列的“暴力出奇迹”形成了鲜明对比,也是当前技术争论的焦点之一。

架构创新派:除了上述在数据工程、数据训练等方面展开研究的派别外,业内也有不少参与者将重点放在小模型与端侧模型的架构创新上。例如,通过设计更高效的神经网络架构、采用模型压缩技术或探索新的训练方法等,来提高模型在端侧设备上的性能和效率。

端侧模型的优势与应用场景

可能有人会说,通过安装在手机上的大模型APP,直接调用云端的大模型接口不就够了,为什么还需要端侧大模型呢?

端侧模型的主要优势在于其本地化运行的特点。将模型部署在终端设备上,能够带来以下好处:

隐私保护更强:数据无需上传至云端,减少了数据泄露的风险,更好地保护用户的隐私。

响应速度更快:直接在本地进行推理和计算,无需依赖网络传输,能够实现实时响应,提供更流畅的用户体验。当然,这依赖于端侧AI芯片的性能要有提升,毕竟,端侧的竞争对手在云端的英伟达芯片,后者的价格动辄几万美金。

离线可用性高:即使在没有网络连接的情况下,端侧模型仍然可以正常工作,满足用户在各种场景下的需求。

端侧模型的应用场景十分广泛。在智能手机领域,端侧模型可以实现语音助手、智能拍照、实时翻译等功能,为用户提供更加个性化和便捷的服务。例如,手机可以根据用户的日常使用习惯和偏好,提供个性化的推荐。

在物联网设备中,端侧模型能够进行实时的数据分析和决策,实现智能家居、智能工业等应用;此外,在一些对数据安全和实时性要求较高的行业,如医疗、金融等,端侧模型也可以发挥重要作用,例如辅助医疗诊断、进行风险评估等。四、小模型的性价比与潜力 小模型之所以受到关注,除了其在特定任务上能够达到较好的性能外,还具有较高的性价比。相比大型模型,小模型的训练和部署成本较低,对计算资源的要求也相对较小。这使得更多的企业和开发者能够负担得起使用小模型的成本,从而推动人工智能技术在更广泛领域的应用。

此外,小模型在一些特定场景下具有独特的潜力。例如,在边缘计算环境中,由于设备的计算能力和存储资源有限,小模型能够更好地适应这些限制。同时,小模型的灵活性较高,可以更容易地进行定制和优化,以满足不同应用场景的特殊需求。

大模型厂商与终端厂商的布局
随着小模型和端侧模型的兴起,大模型厂商、终端厂商以及终端芯片厂商等纷纷加入到这一领域的竞争中。从 2023 年下半年开始,华为、小米、OPPO、vivo、苹果、三星等全球知名手机厂商,以及产业链上的高通、联发科等,都陆续推出了手机 AI 大模型或手机 AI 大模型芯片。
根据 Counterpoint 数据,仅在 2024 年第一季度,全球具有生成式 AI 功能的智能手机型号就从 16 个增加到 30 多个,AI 手机销量占比从 1.3%提高到 6%。例如,苹果在其 WWDC 大会上推出了端侧 AI 系统 Apple Intelligence,随后又在技术博客中介绍了自研的端侧 3b 小模型,性能全面超越主流 7b 大模型。谷歌也发布了 Gemma 系列的最新 sota 模型 Gemma-2,并计划在未来几个月发布更适合手机终端运行的 2b 版本。

这些厂商的积极布局,不仅推动了小模型和端侧模型技术的发展,也为消费者带来了更多具有创新性和实用性的产品。

端侧模型演进趋势
性能提升:随着端侧AI芯片的不断进步,端侧模型和小模型的性能将进一步提高。能够处理更加复杂的任务,与大型模型的差距将逐渐缩小。
融合发展:端侧模型和小模型可能会与大型云侧模型实现更好的融合,通过云端协同的方式,充分发挥各自的优势,为用户提供更全面、更优质的服务。
应用拓展:在更多领域得到广泛应用,如智能穿戴设备、车载系统、工业自动化等,进一步改变人们的生活和工作方式。
创新涌现:激发更多的创新应用和商业模式,例如基于端侧模型的个性化服务、边缘智能解决方案等。
总之,端侧模型和小模型作为大模型赛道的重要组成部分,正以其独特的优势和潜力改变着人工智能的发展格局。它们为我们带来了更高效、更便捷、更个性化的智能体验,也为人工智能技术的广泛应用和普及奠定了基础。在未来的发展中,我们将继续见证它们的成长和创新,为各个领域带来更多的惊喜和变革。让我们拭目以待,共同探索端侧模型和小模型的无限可能!




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询