推荐语
开源大模型治理的双重挑战与社区秩序构建
核心内容:
1. 开源大模型的价值与风险并存
2. 构建创新自由与防范风险的治理框架
3. 开源社区在AI领域的崛起与贡献
杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
开之所以宝贵,是因为其低门槛、高透明度带来了源源不断的创意和改进。但与此同时,大模型技术本身蕴含的风险——从幻觉到被非法滥用——也真实存在。开源大模型治理需要实现“双重目标”,一是确保开源生态的生命力。为善意的开源贡献者搭建可预期的责任避风港,实现“创新自由”;二是协同防范大模型的重大风险。开源生态透明开放、平等协作的特征,已不再适配传统的中心化监管模式,开源大模型治理应回归开源社区,构建“社区治理秩序”。开源在过去几十年间成为数字世界的基石。从互联网早期的Apache Web服务器,到移动时代占据70%以上智能手机的安卓系统[1],再到云计算领域无处不在的Linux操作系统[2],开源软件构筑了全球信息基础设施的脊梁 。在人工智能领域,Google开源TensorFlow使深度学习工具触手可及,而中国团队推出的开源大模型DeepSeek-R1则在受限算力下逼近闭源模型的性能水平,更是推动AI创新浪潮推迈向新阶段[3]。
开源之所以能推动创新,关键在于其开放协作的文化。全球各地的开发者不分昼夜地贡献代码、发现漏洞、优化功能,共同塑造技术的未来。特别值得注意的是,中国在开源浪潮中正从跟随者变为重要贡献者。《全球开源生态洞察报告(2024年)》显示,中国开发者近840万,占全球三分之一,在全球活跃度排名前100的开源软件项目中,中国开发者主导的开源软件项目占比17%,排名第二,未来仍有巨大增长空间[4]。2022年以来,开源模型呈赶超之势。开源与闭源模型在性能和应用领域的差距迅速缩小,甚至在某些方面实现超越[5]。它们为何后来居上?其一、开源的“集市协作模式”似乎正在AI领域重演,开启“万众创新”新局面。开源大模型将底层能力公开,公众可免费下载权重自行部署,进行“二次创作”,在不同行业和场景中微调形成专用版本,灵活适配性大大增强。开发者共同分享工程经验,共同参与技术路线试错,加速了AI发展进化。这一趋势让人不禁联想到经典著作《大教堂与集市》中提出的开源范式——任何人皆可参与创新,形成“无边界的技术市集” [6]。AI领域有望继续谱写开源的传奇。其次,开源模型提升了AI系统的透明度和安全性。“正如最知名的加密算法往往是最安全的一样, 最知名的AI 模型也可能是最安全的。”[7]由于模型架构、权重开放,外部研究者可以深入“解剖”模型,及时发现偏见或漏洞并共同改进。相反,封闭模型如同“黑箱”,外界难以对其进行监督。最后也最重要的是,开源打破了AI领域的既有封闭格局。此前最先进的AI模型往往为少数巨头掌握,产业下游通过API付费使用,对其缺乏议价或约束能力。开源减少了单一供应商的锁定效应,提升了技术自主权。在大模型领域,开源社区用更低算力复现了商业闭源模型的大部分能力,也迫使大型科技公司不得不重新评估策略,保障了行业的良性竞争。尽管人们常用“开源”与“闭源”做二元对比,但在现实中,模型的开放程度呈现出一个递进的光谱[8]。从仅提供API接口的全封闭,到模型架构、权重公开,乃至训练数据开放的完全开源,中间有许多层次。综上,大模型的开放程度形成了一个丰富的谱系。从治理角度,也需要针对模型开放度的不同层次分类施策。为便于讨论,下文所提到的开源大模型,以目前行业主流标准为依据,是指模型参数公开透明,开源许可中除禁止用于违法用途等一般声明外,允许用户自由运行、研究,修改的模型。开源之所以宝贵,是因为其低门槛、高透明度带来了源源不断的创意和改进。但与此同时,大模型技术本身蕴含的风险——从幻觉到被非法滥用——也真实存在。具体来说,开源大模型治理需要实现“双重目标”:一方面,首要确保开源生态的生命力,实现“创新自由”,为开源者搭建可预期的责任避风港,对善意的开源探索给予充分的空间,以吸引更多开发者参与开源,推动开源技术繁荣发展;另一方面,针对开源风险的独特性,构建开源AI治理的“社区秩序”,不致引发重大危害。这其中:开源本身的发展历史提供了许多宝贵经验,从社区自治到协同治理,将为开源模型的安全治理提供重要启示。一是在纵向上:区分产业上下游,明确模型开发者与应用者两类角色,明确责任边界。责任分配的基本出发点是要考虑主体的“风险管控能力”。模型开发者掌控模型设计研发与训练,而部署者深入具体应用场景的细节,二者就大模型的安全风险在管控能力上存在本质差别。因此,当下各国AI治理的共识之一便是对产业主体角色进行区分,并适配不同的治理责任。例如:欧盟《人工智能法》明确了两类不同主体:模型开发者(Provider),其主要责任在于保障其开发的AI系统符合安全性、透明性等要求。采取风险评估、适当的技术措施来增强AI系统的可靠性;模型部署应用者(Deployer)主要确保AI系统在应用过程中符合法规要求。对高风险AI系统进行持续监控,面向用户提供充分的权利保护机制等。美国加州2024年SB-1047法案中的争议也体现了分类治理的认知。该法案初始没有明确区分“开发者”和“部署者”,而是几乎将所有义务集中加在“模型开发者”(provider)身上。此提案引发包括李飞飞在内的产业界人士强烈反对[10]。有专家指出:SB-1047 将部署者应承担的使用责任转嫁给开发者,相当于让“电机制造商为电锯的使用事故负责” [11]。该法案最终被否决。我国《生成式人工智能服务管理暂行办法》将分类治理的思路往前推进一步。规章对模型研发阶段做出了整体性的豁免。除非面向公众提供服务,作为服务提供者承担研发阶段的相关要求,如数据治理的基本规范。这实际形成了一种“激励研发探索的沙盒”:在研发阶段,允许包括开源社区在内的各类主体自由探索;一旦进入应用阶段,特别是公众可触及的服务,再将服务本身纳入监管。开源模型普遍采用的许可证协议中对下游应用的“免责声明”,与以上责任分界逻辑是自洽统一的。开源许可证作为开源社区的“社会契约”,其核心功能是通过授权条款,明确开发者与下游用户之间的权利和责任关系。如BSD许可证明确,开发者不对任何直接或间接损失负责。MIT许可证强调“按原样”提供软件,不提供任何明示或默示的保证。开源许可证符合著作权法和合同法的基本原则,并通过责任框架,免除了开源贡献者的后顾之忧。促进了开源社区的协作创新。这也是各国在法律、司法上在通常情况下认定开源许可证具有明确法律效力的根本原因。二是在横向上:基于开源与闭源的显著差别,开源不应承担与闭源同等的责任。训练一个模型就像制造一台机器,若模型存在基本的明显缺陷,开发者需要对此有预见并尽可能防范。因此无论开源或闭源,开发者理应承担基本的安全责任。然而与闭源相比,这种“基本责任”对于开源模型开发者应有边界。一方面,开源开发者往往缺乏足够的控制力。开源开发人员在发布模型后,“不可能实际监控和防止下游滥用”[12]。下游人员可以微调并规避原始开发人员设置的安全护栏,对此开源者不可能预见所有极端用法。相比之下,封闭模型的开发公司通常也是模型商业服务的提供方,从提供稳定可靠的AI商业服务的目的出发,闭源模型公司通常会在模型研发阶段有更大规模的安全投入,如进行内部红队测试和安全优化[13];而布鲁斯金学会的相关报告指出:“开源者通常不会从他们的贡献中获利,且他们没有预算和合规部门能够完成那些繁重的义务。”[14]另一方面,治理需要考虑到开源开发者的积极性。如果要求开源开发者承担与闭源的商业提供者相同的义务,将会导致开源社区或研究人员为了避免责任而选择不公开发布模型,从而抑制开源创新。[15]相关智库曾批评:“未能区分封闭源与开源AI”的做法,实际是把透明开放的项目和封闭商业系统“一同缠入监管之网,结果就是开源开发者不知道自己的善意贡献会招来称赞还是惩罚,从而对开源创新形成寒蝉效应。”[16]正因如此,即使在监管最为严格的欧盟,其《AI Act》亦规定:免费且开源发布的AI系统通常不受该法案的义务约束;而在通用模型领域,开源提供者也被免除了编制文件,提供信息等义务。美国则采取了更为宽松的做法。美国国家电信和信息管理局(NTIA)指出:目前尚无充分证据证明开源模型比封闭模型更危险,当下并无必要立即出台针对开源模型的强制规定,强调以持续监测作为风险托底,在必要时才考虑采取行动 。开源生态凸显了透明开放、平等协作的特征。如果僵化地将其适用于中心化、科层化的传统监管模式,不仅无法达到预期的监管效果,也将对开源的生态活力带来巨大的负面影响。开源大模型的安全治理应回归开源社区,在开源文化中借鉴治理智慧。社区自律与监督是开源治理的核心一环。以开源AI模型的集散地Hugging Face平台为例,其已经形成了一套成熟的社区治理经验。平台方:要求模型发布者提供详尽的模型卡(Model Card),对模型训练数据、性能、伦理影响等做说明,并特别列出模型的适用和不适用范围。同时平台将对模型作额外审查,明确禁止带有恶意后门代码、用途违法的模型。一旦发现,管理员会迅速下架处理。如果某个模型被多次举报存在有害内容,社区和舆论的谴责也会形成一定威慑力。对于某些高风险模型,Hugging Face 会要求添加“非面向所有受众”标签,从而在用户访问时弹出警示并默认隐藏该内容。[17]社区用户:则可对有害内容或可疑模型进行标记举报,或贡献改进的数据集来微调纠偏。类似的,Open Assistant 项目利用GitHub issue和Discord频道收集用户对模型输出的反馈,鼓励大家参与“红队”测试来发现模型弱点[18]。除开源社区外,开源AI模型开发和部署涉及多个利益相关方,包括:云计算提供商、模型托管平台、下游使用及应用开发者、分发渠道、第三方评测审计者、终端用户乃至政府监管部门,每一方都拥有独特的能力和责任,只有通过充分协作才能达成有效的AI风险治理[19]。“足够多的眼睛,能让所有问题浮现。”1997年,埃里克·雷蒙(Eric S. Raymond)提出的“Linus 定律”至今仍熠熠。无论是在软件时代还是AI时代,在开放的社区中,错误和缺陷更容易被发现和修正。这种精神也浸润在每一个社区实践中——Linux内核的安全维护靠的是全球成千上万开发者的共同监督与补丁提交;主要发行版厂商负责将安全更新及时推送给用户;大型IT企业资助漏洞悬赏计划;政府部门出台网络安全基线要求……同理,在开源大模型领域,我们也期待形成基于社区机制的开放治理生态——生态中的每一类参与主体对其最有能力管控的风险环节,实施包括预警、感知、纠正、消减风险的各类措施,达成开放协作敏捷高效的安全协作。