微信扫码
与创始人交个朋友
我要投稿
今天来聊聊果式AI,Apple Intelligence。这是Apple在2024年6月初的WWDC发布会上发布的最新AI方案,现在来谈这个话题可能有些晚了,但还是值得说一说。苹果发布会的内容主要分为几个部分:首先是长达两个小时的发布会完整视频,其中关于人工智能的部分占了将近40分钟。除此之外,还有一些宣传网页和五分钟的宣传视频,面向开发者的更深入的技术材料在这里就不再赘述。
我们先从面向终端用户的网页和短视频谈起。视频和网页主要介绍了一些终端应用,包括利用大模型生成文字,形成摘要的能力,以及在图像方面生成图片或表情包。
我个人认为,从终端用户的角度,苹果提供的应用其实有点无聊。因为苹果的一些功能与当前的大模型应用方案相比并没有显著优势。甚至由于苹果注重安全和隐私,可能生成的内容更受限制,更没有创造力。
但如果观看开发者大会的视频,可以看到他们先花了大量精力介绍Siri如何借助更智能的大语言模型提升能力。优化了Siri的系统级别功能,新版Siri不仅有新的用户界面,还能通过文字对话识别用户意图,并且可以通过大模型跨应用共享用户的上下文,从而减少用户在使用应用时的阻力,帮助用户更好地完成任务。另外,苹果展示了如何在本地和网络上提供更安全、更注重隐私的模型,
所以,我对Siri和背后的技术有点期待。从发布会上营造的效果来看,通过大语言模型的加持,Siri可以更智能地了解用户的意图,并且结合适配的应用,营造出跨App的自动化智能效果。
苹果自身
从苹果的角度来说,有两方面,一个是他们自身的技术路线,还有一个是他们后续的业绩表现。
从技术实现角度看,苹果延续了他们封闭但是极强的控制力。这次的大模型是都是基于自家硬件和技术框架训练的,而不像大多数大语言模型是在英伟达的GPU上训练。苹果还提供了Apple Intent框架,使得应用开发者可以暴露应用内部的核心功能和信息,从而让Siri能够跨应用访问数据并执行操作。目前,很多人工智能模型的提供商还不具备直接访问用户各种数据和应用的能力,而苹果在这方面具有直接面对最终用户的优势。
苹果此次提供的大模型分为两个部分:一个是本地端的小模型,另一个是互联网端的私有模型计算引擎。至于最终效果,可能要等到今年年底才能检验。苹果在官网技术材料中也说明了自家的本地小模型与互联网端模型和相关竞品的比较,虽然看上去不错,但实际效果还需进一步测试。此外,不同国家的合作伙伴可能不同,在国内的落地效果也有待检验。
最后,苹果限制了iPhone 15 Pro以上机型才能使用AI,推测是因为大模型需要大量内存。受此影响,如果用户今年想要第一时间使用苹果的AI,就需要换机,这可能会刺激苹果自身的产品销量。
关联方
如果这次由AI换机导致用户需求激增,对苹果供应链内的企业也会是利好。
另外如果要实现跨App的智能体验,每个App的开发商就要做相关的适配。不知道后续各个App是否会针对AI进行相关的优化。从消费者的角度,肯定是希望他们能够进行适配,从而提升整体的使用体验的。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-12
TableGPT2-7B:浙大推出专注于分析和处理表格数据的大模型
2024-11-12
AI大模型多轮对话的五个挑战与应对方法
2024-11-12
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI
2024-11-12
真假◎智能原生(AI Native)应用极其挑战
2024-11-12
微软最新的多AI 代理框架:Magnetic-One
2024-11-12
大模型时代的软件研发:正确的打开方式
2024-11-11
百模大战中的网络:科大讯飞万卡级智算集群
2024-11-11
Scaling Law撞墙,AI圈炸锅了!OpenAI旗舰Orion被曝遭遇瓶颈,大改技术路线
2024-05-28
2024-04-26
2024-04-11
2024-08-21
2024-07-09
2024-07-18
2024-10-25
2024-08-13
2024-06-17
2024-07-01