AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


研究人员发明了一种新的逻辑系统,有望提升批判性思维和人工智能的能力
发布日期:2024-11-22 06:06:30 浏览次数: 1522 来源:清熙


作者:Alexander V. Gheorghiu - Research Fellow in Logic or Applied Logic, UCL

编译:王庆法 

译者注:理解 MIT对大模型数理原理的强有力证明 ,潜在需要一个基本逻辑的调整,本文给了很好的阐释。


新逻辑系统

研究人员发明了一种新的逻辑系统,有望提升批判性思维人工智能的能力。

我们曾经坚信不移的语言结构正在崩裂。以性别、国籍或宗教为例:这些概念已经不再适合于上个世纪僵化的语言框架。同时,人工智能的崛起迫使我们更加迫切地理解词语与意义及推理之间的关系

一个由全球哲学家、数学家和计算机科学家组成的团队提出了一种新的逻辑理解方式,称之为“推论主义”(inferentialism)【文献1】。

逻辑的一个传统直觉,至少可以追溯到亚里士多德时代,是逻辑结果应该依赖于所涉及命题的内容,而不仅仅是因为它们“真”或“假”。最近,瑞典逻辑学家达格·普劳维茨(Dag Prawitz)指出,传统的逻辑处理方式实际上完全未能体现这一直觉,这一观察可能会令人意外。

现代逻辑学 —— 科学、工程和技术的坚实基础 —— 存在一个根本性问题。在过去的两千年里,逻辑的哲学和数学基础是基于这样一种观点意义源于词语所指代的事物。这种观点假设在宇宙中存在着一些抽象的对象类别,比如“狐狸”或“雌性”的概念,并通过这些类别的事实来定义“真理”的概念。

例如,考虑句子“塔米是一只雌狐”(“Tammy is a vixen”)。这句话是什么意思呢?传统的答案是存在一个被称为“雌狐”的生物类别,而名字“塔米”指的是其中的一个。如果“塔米”确实属于“雌狐”这一类别,那么这个命题就是真的。如果她不是一只雌狐,但自认为是雌狐,那么根据标准逻辑,这个陈述将是假的。

因此,逻辑结论仅仅是通过“真理”的事实来得出,而不是通过推理的过程。因此,逻辑无法区分例如4=4和4=((2 x 52) -10)/10之间的差异,因为它们在逻辑上都为真,但我们大多数人都能注意到它们之间的不同。

如果我们的逻辑理论无法应对这一点,那我们又如何能指望教会人工智能更精细、更微妙的思维?在“后真相”时代,我们如何能够辨别对与错?

语言与意义

我们新的逻辑更好地代表了现代语言的使用。其根源可以追溯到奥地利怪才哲学家路德维希·维特根斯坦(Ludwig Wittgenstein)的激进哲学。维特根斯坦在他1953年的著作《哲学研究》中写道:

“对于使用‘意义’这个词的大量情况——尽管不是全部——这个词可以这样解释:一个词的意义就是它在语言中的使用。”【译者注:这是维特根斯坦米田嵌入的哲学定义,请参考降低大模型幻觉的必由之路

这一概念让意义更多地与上下文和功能相关联。20世纪90年代,美国哲学家罗伯特·布兰顿(Robert Brandom)将“使用”进一步精炼为“推理行为”,为“推论主义”奠定了基础。

假设一个朋友或者一个好奇的孩子问我们“塔米是一只雌狐”是什么意思。我们会如何回答他们呢?我们可能不会谈论物体的类别。我们更可能会说,这意味着“塔米是一只雌性的狐狸”。

更准确地说,我们会解释说,从塔米是雌狐这一点可以推断出她是雌性,同时她也是一只狐狸。反过来,如果我们已经知道她是雌性并且是一只狐狸,那么我们确实可以断言她是一只雌狐。这就是推理主义对意义的解释;它不再假设宇宙中漂浮着抽象的对象类别,而是承认理解来源于语言元素之间丰富的关系网络。【译者注:降低大模型幻觉的必由之路中讲 米田嵌入就是:关系,关系的关系,关系的关系的关系

考虑当今的一些争议性话题,比如围绕性别的问题。我们可以避开那些阻碍建设性讨论的形而上学问题,例如关于“男性”或“女性”类别是否在某种意义上是真实存在的。这类问题在新逻辑中没有意义,因为许多人并不认为“女性”一定是一个具有唯一真实意义的类别。

作为一个推论主义者,面对像“塔米是女性”这样的命题,所要问的只是可以从该陈述中推断出什么:有人可能会得出有关塔米生理特征的结论,另一些人则可能考虑她的心理构成,还有人可能会从完全不同的角度理解她的身份。

推论主义的具体应用

那么,推论主义是一个引人入胜的框架,但在实践中它意味着什么呢?在20世纪80年代的一次斯德哥尔摩讲座中,德国逻辑学家彼得·施罗德-海斯特(Peter Schroeder-Heister)命名了一个基于推论主义的领域,称为“证据理论语义学”(proof-theoretic semantics)。

简而言之,证据理论语义学是推论主义的具体实现。近几年,这一领域有了显著的发展。虽然研究结果仍然比较技术化,但它们正在彻底改变我们对逻辑的理解,并且在我们对人类和机器的推理及论述理解方面取得了重大进展。

例如,大语言模型(LLM)的工作原理是通过猜测句子中的下一个词。这些猜测仅仅依赖于常见的语言模式和一个包含试错与奖励的长期训练过程。因此,它们会出现“幻觉”,即构造出逻辑上荒谬的句子

通过利用推论主义,我们可能可以让它们对所使用的词语有某种理解【译者注:所谓理解基于关系的推理。例如,一个大语言模型可能会产生一个历史事实的“幻觉”:“凡尔赛条约于1945年签署,签署方是德国和法国,第二次世界大战之后。” 这是因为这句话听起来合理。但如果有推理理解,它就可以意识到“凡尔赛条约”是第一次世界大战后的事情,是在1918年,而不是第二次世界大战后的1945年。

这在批判性思维和政治领域也可能会派上用场。通过对逻辑结果的合适理解,我们可以自动标记和分类报纸和辩论中的荒谬论点。例如,一位政治家可能会宣称:“我的对手的计划是糟糕的,因为他们有做出错误决定的历史。”

一个具有适当逻辑结果理解的系统会指出,尽管对手有做出错误决定的历史可能是事实,但这并没有对其当前计划的错误之处给出实质性理由

通过不再将“真”和“假”置于崇高的地位,我们为对话中的辨别能力打开了大门。正是基于这些发展,我们可以声称一个论点是逻辑上有效的,无论是在政治辩论场合、与朋友的激烈争论,还是在科学讨论的世界中。


文献1  Articulating Reasons:

https://sites.pitt.edu/%7Erbrandom/Courses/2022%20Phil%20of%20Language/Reasons%20texts/Brandom_-_Articulating_Reasons.pdf


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询