AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


AI是否可以作为发明人-再谈DABUS案
发布日期:2024-08-20 05:34:59 浏览次数: 1778 来源:人工智能与知识产权


2024年6月,德国联邦专利法院裁决[案件编号:18W(pat)28/20] 人工智能DABUS不能作为专利的发明人。主审法官西格弗里德.霍希特裁定,即使人工智能已经确定了问题和解决方案,被列出的发明人也必须是自然人。


在24年4月份,中国专利复审委员会判决:DABUS不是民事主体,不能作为专利发明人。


在23年12月英国最高法院关于DABUS案的判决中,给出了和德国法院一致的结果:即根据1977年英国专利法,专利的发明人必须是自然人,DABUS不是自然人,因而不能获得发明人身份。


在2021年2月24日,美国专利商标局(以下简称“USPTO”)在弗吉尼亚州联邦法院提交简易判决动议,关于原告当事人挑战USPTO认为的专利不能涵盖人工智能机器的发明的结论,USPTO认为专利法案定义了发明人必须是以人类作为“个体”


至此,DABUS案在世界主要的专利行政机构(中,美,欧)均迎来了结论:即AI不能作为发明人。


两年前,笔者撰文评论过DABUS (《人工智能DABUS究竟发明了什么》)。那篇文章所分析的主要是DABUS案这件专利申请并未给出任何新的发明或发现,而是一篇民科的作品。


在上面几大专利局的判决中,所持的主要观点在于:DABUS不是“人类”或合法的民事主体,故不能作为发明人。但笔者在本文中想进一步论述的是:DABUS,或者目前的任何一个AI,并不能真正“发明”任何新东西,即使看起来它们似乎能输出很多新东西


24年7月,Nature刊发了封面文章《AI returns gibberish when trained on generated data》。该文章的主题在于:如果使用AI生成的数据训练AI,那么,不出几代,AI就会胡说八道(Gibberish),最终导致崩溃(Collapse)


下图是文中以AI模型生成狗的图像作为示例:



AI 模型会倾向于重现训练数据中最常见的狗的品种,因此可能如果随后的模型在一个 AI 生成的数据集中进行训练,而这个数据集中过多地呈现了金毛,这个问题就会加剧。经过足够多轮次的过多呈现金毛后,模型将忘记诸如法斗这样的冷门品种的存在,只生成金毛的图像。最终,模型将崩溃,无法生成有意义的内容。


为什么使用AIGC来训练AI会导致模型崩溃?研究人员在文中给出的一种解释是:模型在训练中使用自身生成的内容,会出现不可逆转的缺陷,逐渐忘记真实数据分布,从而导致模型性能下降


这种“不可逆的缺陷”,来自什么原因呢?毕竟,在对生物的认知中,物种一代代的进化会变得更强。看起来,数据驱动的深度学习模型的表现某种程度上走向了生物的反面。


关于上述问题有很多种方向的回答,笔者认为原因之一在于:AI模型没有目的


如今的AI模型,其训练过程是以度量向量空间中点的距离(所谓损失函数)作为基准的,其输出是以概率化的形式给出的。藉由算力的飞速发展和存储能力的增加,当训练数据足够多的时候,模型可以基于足够多的权重参数来“模拟”世界的某些方面,在大语言模型这里,就是可以输出足够以假乱真的“语言”。


但是如果跳出“下位的”模型的训练和输出过程,进一步“向上”追问AI模型整体目的是什么,则没有答案。AI模型的训练和输出规则是人类定好的,但是AI模型整体是一个自下而上的系统,它没有明确的可解释目的。


在这里,生物和目前的AI模型产生了泾渭分明的区别,生物所做的事情包括至少一个目的:生存(也可以说是延续基因)。人们可以说蚂蚁没有意识,但是蚂蚁的行为一定是有目的的。


所以,当生物在无限复杂的世界中进行“探索/行为”时,其带有明确的目的性,这种目的性关乎生死存亡,无法简单地用一个“损失函数”或者“注意力机制”之类的数学概念来定义。生物必须时刻不停地获取周围的信息,从中得到某些有利生存的“指示”,这种“指示”,可能也无法用数学函数,或者难以用语言完备地表达。


作为对比,当目前的AI模型在虚拟的、复杂度极高的数学空间中进行操作时,并无与生物类似的目的。不可否认,在强大算力的加持下,AI模型可以发现很多‘新’东西-例如AlphaGo所输出的围棋新走法、或者Alphafold输出的蛋白质折叠新模式那样。但是微妙的区别就在这里:这些新发现,其本质上是人类所定义的规则,在强大算力的加持下,在虚拟空间中所得到的结果。本质上来说,它们属于人类意识+算力放大器的产物,而不是AI模型自身所要求/追求的目的


回到上面示出的Nature论文图,最后(d)中示出的乱七八糟图像在某种意义和大语言模型输出的“幻像(Hallucination)”是一致的。它们都是模型在广阔的可能性空间中所“发现”的新模式,并且这种新模式符合人类对模型所做的数学化的约束和限定。对人类而言,其实也可以输出类似大语言模型的“幻觉”,例如一个人可以说:“美国现任总统是克林顿”。但是人类社会的共识使得别人能判断出他在胡说。而如果这个人一直说类似的话语,大家就会认为此人可能精神有问题。在这个例子中,对于这个“精神有问题”的人而言,他说的话在语法上都是正确的,但是整体上却是不正确的。在这个例子中,人类目的性的某个侧面-言谈举止应符合社会一般准则(或许只能这么说)会使得一个“正常的人”按照社会准则和共识来谈话,而不能随意乱编。当然,在某些特定的情况下,明显的胡说也能得到大家的认可,就像“指鹿为马”的故事所描述的那样。但是指鹿为马的目的性是更明确的,赵高要借此判断谁是服从他的而谁不是。


但是对目前的AI模型而言,并无此类限制。AI模型符合人类设定的约束(例如损失函数、学习率之类),可以在广阔的可能性空间去任意探索(速度比人快得多),并得到各种各样的“结果”。这些结果中有些可以被人类认可与接受、并认为是合理的-就像AlphaGo的围棋新走法那样;而有些被认为是荒谬的。从这个意义上来说,AI模型其实并未“做错”什么,它机械地执行着人类的设定的规律,只不过这一过程没有任何目的。它的一切产出,在目前而言,必须藉由人类观察者才能赋予目的和意义


回到文初的问题,目前的AI模型,所产出的一切“新”产物,均来自人类意识和强大算力的耦合,并且必须藉由人类进行解释才能获得意义。在目前,AI模型没有“发明”任何新东西,它们仅仅是人类所使用的手段-与算盘并无本质区别。它们不具备任何作为专利“发明人”的可能,因为它们根本未曾从目的的角度去考虑(其实对目前的机器而言,“考虑”也是一个不太恰当的词)过如何解决一个问题


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询