微信扫码
与创始人交个朋友
我要投稿
Apple Intelligence 已经开始向测试用户推出了。与此同时,苹果还发布了一份技术报告,详细介绍了支持这项新功能的基础语言模型,这是支撑着苹果设备和云端功能的"超级大脑"
这份报告里有不少干货。从模型设计到数据处理,从训练方法到性能优化,苹果把他们的"独门秘籍"都和盘托出了。虽说这不是用来聊天的,但它是个多面手 - 写文章、编程、操作工具,样样精通
苹果宣称始终把用户放在第一位,不仅追求模型的高效快速,更重视如何真正帮到我们
Apple Intelligence中使用的两种基础大语言模型:AFM-on-device(适用于设备)和AFM-server(用于服务器)
具体来说:
在这份报告中,苹果详细介绍两个模型的构建,优化,和适配过程。这两个模型分别是:
AFM-on-device(AFM是Apple Foundation Model的缩写):一个约30亿参数的语言模型,设计用于设备端运行
AFM-server:一个更大型的、基于服务器的语言模型
这两个基础模型其实是苹果公司创建的一个更大的生成式模型家族中的一部分。这个模型家族旨在为用户和开发者提供支持。除了上述两个模型,这个家族还包括:
一个编码模型:它基于AFM语言模型,用于为Xcode注入智能功能
一个扩散模型:帮助用户以视觉方式表达自己,比如在Messages应用中使用
使用了专门的评估指标和方法来衡量摘要功能的质量,AFM-on-device适配器在摘要方面表现出色
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-04-11
2024-08-21
2024-07-09
2024-08-13
2024-07-18
2024-10-25
2024-07-01
2024-06-17