AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


端云大模型:苹果模式代表了AI合规趋势?
发布日期:2024-06-12 22:33:11 浏览次数: 2225



AI合规是一项容易“得寸进尺”的工作。当我们在服务端提供数据处理时,人们以为将数据设计运行在端侧就万事大吉了,而当数据只跑在端侧,我们却发现AI及数据合规工作远未到深水区。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

2024年6月10日,苹果公司重新定义了AI——“苹果智能”(Apple Intelligence),发布了果迷们期待已久的苹果AI功能——一个苹果公司落后市场进度达两年的产品。苹果智能包括Siri在内的全套应用程序中整合了新的AI技术,并将为iOS18等系统引入AI功能,包括整合集成OpenAI的聊天机器人ChatGPT。

特斯拉首席执行官埃隆·马斯克(Elon Musk)在X上指责苹果这是在出卖用户数据,并表示如果苹果在操作系统层面集成OpenAI,他就将立即禁止其设备进入自己旗下的公司。

不出所料,凡AI大事件,一定会引发巨大的争议,就像我在前段时间撰写的微软新功能一样。微软Copilot的AI召回:大模型的本地数据处理能豁免法规项的要求吗?‍‍‍‍‍‍‍‍‍‍‍

不管如何,苹果竟然最终仍然需要通过和OpenAI合作的方式实施AI战略,也颇令人意外,难道苹果在AI时代真的会江郎才尽吗?难道OpenAI在未来仍然能够纵横捭阖,让微软、苹果等一系列时代巨头都低头合作?‍‍‍‍‍‍‍‍‍‍‍‍‍

01  Apple AI的PCC

从发布会来看,Apple AI的功能包括终端中的写作能力、生成Genmoji图(而且仅基于模板而生成动画、插图或素描样式),以及基于草稿生成图,最后是Siri问答。

事实上,从这些功能就可以看出,目前Apple AI的功能其实并不十分强大,至少从需要消耗大量算力的生图能力来看,被严格限制在特定场景之中。‍‍‍‍‍‍‍‍‍‍‍

(苹果基础模型的建模)

苹果AI的服务端实际上由三重能力构成:第一重能力是基础能力,通过苹果本地芯片计算,让自带大模型可在本地终端运行,从而提供生成服务;第二重能力为私有云(Private Cloud Compute,简称PCC)能力,即当发现本地终端无法提供生成能力时,苹果将在“云端”提供生成能力,这是一种新型云服务;第三重能力即寻求外部OpenAI的帮助,这似乎是一种当前两重能力无法满足用户生成需求时的替代能力。‍‍‍

从实践来看,确实有部分大模型生成能力已经能够基于终端算力,直接运行在终端之中,而无须借助更强大的云计算中心实施。但是,生成的时间、生成物的类型以及生成物生成内容均具有比较多的限制。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

这是因为在终端提供大模型能力是有巨大的现实障碍的。包括大模型通常包含数十亿到数千亿个参数,需要占用大量的存储空间。例如,GPT-3模型的参数量达1750亿,占用的存储空间超过数百GB。另外,大规模人工智能模型(如GPT-4或更大规模的模型)通常需要大量的计算资源。这些模型在训练和推理过程中需要大量的算力,而当前大多数端侧设备的计算能力有限,难以满足大模型的运行需求。即便是高端智能手机,其CPU和GPU的计算能力也远不及数据中心的专用AI加速硬件。

这也能够解释为何4090显卡动则近数万元的高昂成本的合理性了。

在6月10日发布会后,苹果发布了《私有云计算:云端 AI 隐私的新前沿》一文,详细阐述了私有云(Private Cloud Compute,简称PCC)计划如何提升人工智能的隐私保护。

PCC允许对用户数据进行复杂的AI计算,同时确保数据对任何人(包括苹果公司)都不可访问。PCC利用定制的苹果芯片和强化的操作系统,提供无状态计算(个人数据不会在 PCC 系统中留下任何痕迹)、可执行的隐私保障、无特权运行时访问(不得包含苹果员工访问的特权接口)、不可定位性以及可验证的透明性。这种架构将设备上的处理安全性和隐私性延伸到云端,保护用户数据免遭未经授权的访问和利用。苹果自信的表示这是有史以来为大规模云 AI 计算部署的最先进的安全架构。

苹果公司表示,ChatGPT集成将于今年晚些时候推出,其他人工智能功能也将陆续推出,并补充说,聊天机器人可以免费使用,用户信息也不会被记录。

这让人想到GPT-4o发布后一系列诡异的操作,包括GPT-4o可免费使用、GPT-4o为MAC提供了桌面插件等等。这看起来就像是:GPT-4o实际上就是他们为苹果所量身定制的,以迎合苹果的数据合规要求:无账号标识可用、OpenAI 不会存储请求,并且用户的 IP 地址会被隐藏等等。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

02 端侧成合规标配?

端侧大模型是否能够成为合规标配,本质上不取决于合规,而主要取决于本地算力。

大模型的端侧服务将隐私性、控制和可靠性进行提高,在本地系统上使用大型语言模型(LLM)似乎也变得越来越受欢迎。

例如,谷歌就在2024年5月24日,在最新的Chrome浏览器中更新内置了本地化的人工智能模型(Gemini Nano),允许用户离线使用人工智能并在本地处理敏感数据。谷歌认为使用 chrome 本地模型的好处包括:一是本地处理敏感数据;二是流畅的用户体验; 三是对 AI 的访问权限更高; 四是可以离线使用 AI。

正如本人在之前发文的意见,本地处理仅仅只是一种相对安全并分散风险的技术方案,但可惜不是豁免遵守法规的理由。

在端侧或者云端运行大模型,在实践中的合规要求并没有太多的动态变化。
就在2024年6月11日,香港个人资料私隐专员公署(私隐专员公署)发布的《人工智能 (AI): 个人资料保障模范框架》中就举了一个示例某律师事务所正在定制第三方的AI聊天机器人,以帮助其员工撰写法律文件及进行文书工作。无论AI聊天机器人是在事务所的内部服务器还是云端服务器上运行,该事务所均提醒员工在使用AI聊天机器人时,避免输入个人资料及/或客户的敏感信息。

值得关注的是,苹果的私有云计算在未来是否有可能在中国境内提供服务,仍然是要划上一个问号的。因为,不论从法规项要求,抑或是从实践来看,私有云计算本质上仍然也是一种对外提供服务的云计算,外资IDC牌照(互联网数据中心业务中的互联网资源协作服务)的获批难度都非常之大。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

互联网资源协作服务业务是指利用架设在数据中心之上的设备和资源,通过互联网或其他网络以随时获取、按需使用、随时扩展、协作共享等方式,为用户提供的数据存储、互联网应用开发环境、互联网应用部署和运行管理等服务。

若苹果给用户提供云端数据处理(注:未保存数据),无论其是否对用户收费,均需要B11互联网数据中心业务(互联网资源协作服务业务)许可。

另外,苹果和OPENai之间的数据关系也变得微妙,在深度集成模式下,苹果和OPENai之间是否构成共同处理,还是单独处理仍然是个未知数。‍‍‍‍‍‍‍

当然,这个问题无须咱中国用户关注,毕竟以肉眼可见的范围内,OPENai并没有什么机会以其自身名义登陆中国。所以,这个数据合规难题,仍然要落到中国数据合规人头上。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询