微信扫码
添加专属顾问
我要投稿
AI的“智能”真的存在吗?DeepMind最新论文重新定义了“智能”概念。核心内容:1. DeepMind新论文对AI“智能体性”的颠覆性解释2. 从“图灵测试”到“中文房间”,AI智能标准的演变3. GPT-4对中文的理解和AI智能的真正含义
还记得 AlphaGo 战胜李世石的那一刻吗?全世界都为人工智能的“智能”所震撼,人们惊呼“人工智能时代”已经到来。但 Google DeepMind 最近的一篇论文,却给这种“智能”打上了一个大大的问号。这篇名为《Agency Is Frame-Dependent[1]》的论文指出,AI 的“智能体性”(Agency),并非其固有属性,而是取决于我们观察和评估它的“框架”。
等等,“智能体性”?“框架”?这都什么意思?别急,这正是本文要深入探讨的问题。DeepMind 这篇论文,不仅有哲学思辨价值,更对我们理解 AI,乃至 AGI(通用人工智能)的未来发展,有着深远的影响,甚至会颠覆你对“智能”的看法。
一直以来,我们似乎都在寻找一个客观的、统一的 AI 智能标准。从“图灵测试”到“中文房间”,各种思想实验层出不穷,试图揭开 AI“理解”的真相。但 DeepMind 的研究告诉我们:别再执迷于“客观智能”了,根本不存在!
让我们先回顾一下著名的“中文房间”思想实验。哲学家约翰·塞尔(John Searle)假设:一个只懂英语的人,被关在一个封闭的房间里。他手头有一本详细的规则手册,告诉他如何根据收到的中文符号,输出相应的中文符号。即使他完美地执行了这些规则,给出了令人信服的中文回答,但他真的“理解”中文吗?
塞尔认为,这仅仅是符号操作,与真正的理解无关。因为这个人缺乏将符号与真实世界经验相连接的机制。他就像一台机器,按照程序运行,却不知道自己在做什么。
这个思想实验在中国也引起了广泛的讨论。毕竟,理解,不仅仅是字面意思的解读,更包含了意境、情感、文化背景等多重因素。
那么,GPT-4 呢?它在各种语言任务上都表现出了惊人的能力,甚至能够生成流畅、连贯、富有逻辑的文本。在中文语境下,它也能对答如流,甚至能写诗、写代码。它真的“理解”了中文吗?
从“中文房间”的角度来看,GPT-4 仍然是一个符号操作系统。它通过学习海量的文本数据,掌握了符号之间的关联规则,但这些规则仍然是基于统计的,而不是基于语义的。
不信?你可以试试让 GPT-4 解释一下“火钳刘明”是什么意思。它很可能一本正经地给你分析“火钳”和“刘明”这两个词的含义,却不知道这其实是“火前留名”的谐音,是网友们在论坛里灌水时常用的表达。
再比如,你让 GPT-4 翻译一首古诗,它或许能把每个字的意思都翻译出来,但却很难传达出诗歌的意境和韵味。因为它缺乏对中国传统文化的理解,缺乏对诗人情感的共鸣。这就像一个没有灵魂的翻译机器,虽然字字对应,却失去了灵魂。
既然“理解”如此难以定义,那么我们能否通过“行为”来判断 AI 是否具有智能呢?“图灵测试”就是这样一种尝试。
“图灵测试”的核心思想是:如果一台机器能够与人类进行对话,并且让人类无法区分它是机器还是真人,那么这台机器就应该被认为具有智能。
然而,AI 真的能通过“图灵测试”吗?或者说,通过了“图灵测试”的 AI,就真的具有“智能”吗?
恐怕没那么简单。 近年来,越来越多的研究表明,“图灵测试”存在着严重的局限性。
一方面,AI 系统越来越擅长“欺骗”人类。2014 年,一个名为“尤金·古斯特曼”(Eugene Goostman)的聊天机器人,就成功地让 33% 的评委相信它是一个 13 岁的乌克兰男孩。
另一方面,人类对 AI 的认知也在发生变化。我们越来越倾向于将 AI 的“行为”表现与“理解”能力混淆。只要 AI 的回答看起来“像”人类,我们就容易认为它具有了智能。
更令人担忧的是,近年来出现了一种“逆向图灵测试”的现象。也就是说,人类需要证明自己不是 AI!
在一项研究中,研究人员要求参与者在网上与一个未知的对象进行对话,并判断对方是人类还是 AI。结果发现,人类识别 AI 的准确率只有 60% 左右。而当人类被要求证明自己不是 AI 时,他们的“通过率”也只有 63%!
这意味着什么?“图灵测试”的“门槛”正在变得越来越低。AI 越来越容易通过“图灵测试”,而人类却越来越难以证明自己是人类。甚至,在某些情况下,人类为了通过“逆向图灵测试”,不得不主动模仿 AI 的说话方式,比如故意犯一些拼写错误,或者使用一些生硬的表达。这简直是对人类智力的侮辱!难道,我们真的要向 AI 学习如何“不像 AI”吗?
面对 AI“智能”的种种争议,DeepMind 的研究人员提出了一个新的视角:我们应该关注 AI 的“智能体性”(Agency),而不是笼统的“智能”。
DeepMind 将“智能体性”定义为:“系统朝向目标引导结果的能力”。
这个定义包含四个关键要素,缺一不可:
这四个要素,构成了一个完整的“智能体”框架。只有同时满足这四个条件,一个系统才能被认为是具有“智能体性”的。
然而,DeepMind 的研究人员进一步指出,这四个要素的判断,都依赖于一个“框架”(Frame)。
如果说“智能体性”的四个要素是“硬件”,那么“框架”就是“软件”。它是我们观察和评估 AI 的“视角”或者说“参考系”。它决定了我们如何看待 AI,如何定义 AI 的“智能”。
更具体地说,“框架”包含以下四个要素:
下图展示了“框架”的四个要素:
DeepMind 用“隐形眼镜”来比喻“框架”。我们戴上不同的“眼镜”,看到的 AI 就会呈现出不同的“智能”形态。 不同的“框架”,会导致对同一个 AI 系统产生完全不同的“智能体性”判断。
为了更清晰的阐述“框架”的概念,我们来看一个自动驾驶的例子:
智能体性判定 |
具备 |
可能不具备 |
看到了吗?同一个自动驾驶系统,在不同的“框架”下,可以被认为是“智能”的,也可以被认为是“不智能”的。这就像“罗生门”,每个人看到的真相,都只是真相的一部分。
AlphaGo 无疑是 AI 发展史上的一个里程碑。它在围棋领域战胜了人类顶尖棋手,展现出了惊人的“智能”。
但是,如果我们从“框架依赖性”的角度来看,AlphaGo 的“智能”又是怎样的呢?
如果我们把 AlphaGo 看作一个整体,那么它无疑具有强大的“智能体性”:它能够在复杂的棋局中自主决策,目标是赢得比赛,并且能够通过学习不断提升自己的棋力。
但是,如果我们把“框架”缩小到 AlphaGo 的内部,只关注其中的神经网络,那么它就只是一个复杂的函数,根据输入的棋盘状态,输出一个落子位置。它的行为完全由神经网络的参数决定,不具备任何“自主性”。
更进一步,如果我们把 AlphaGo 与 AlphaGo Zero 和 AlphaZero 进行对比,我们会发现,它们的“智能体性”也存在着微妙的差异。
AlphaGo 的训练,依赖于大量的人类棋谱数据。而 AlphaGo Zero[2] 则完全从零开始,通过自我对弈来学习。AlphaZero[3] 则更进一步,将这种“自我学习”的能力推广到了其他棋类游戏(如国际象棋、将棋)。
从“智能体性”的角度来看,AlphaGo Zero 和 AlphaZero 比 AlphaGo 更具有“自主性”。因为它们不依赖于人类的先验知识,而是通过自身的探索和学习,来构建对棋类游戏的理解。AlphaZero 更是通过在不同棋类游戏中的出色表现,证明了其“智能体性”的“可迁移性”。
DeepMind 的“框架依赖性”理论,对 AI 研究和应用具有深远的启示。它让我们意识到,AI 的“智能”并非客观存在,而是我们主观建构的产物。
“框架依赖性”意味着,不存在一个客观的、绝对的 AGI(通用人工智能)标准。我们对 AGI 的理解和评估,始终是相对的、主观的。
不同的“框架”,会导致对 AGI 提出不同的要求。
因此,未来的 AGI 发展,可能会呈现出多样化的趋势。不同的 AGI,可能会在不同的“框架”下,展现出不同的“智能”形态。也许,未来的 AGI 就像一个“变形金刚”,可以根据不同的任务和场景,切换不同的“形态”。
“框架依赖性”也要求我们重新思考 AI 的评估标准。
传统的“图灵测试”,过于强调 AI 的“拟人性”,而忽略了 AI 在其他方面的价值。
未来的 AI 评估,应该更加全面、更加灵活。除了“智能”表现,我们还应该关注 AI 的“实用性”、“可解释性”和“可控性”。
这三个维度,构成了 AI 评估的“新标尺”。在不同的应用场景中,这三个维度的权重可能会有所不同。
例如,在医疗诊断领域,可解释性可能比实用性更重要。因为医生需要理解 AI 的诊断依据,才能做出最终的决策。而在自动驾驶领域,可控性可能是最重要的。因为 AI 的任何失误,都可能导致严重的安全事故。
“框架依赖性”还对人机关系提出了新的挑战。
如果我们不能真正理解 AI 的“智能”,我们如何与 AI 建立信任?我们如何与 AI 进行有效的沟通和协作?
未来的 AI 应该具备“共情”能力。也就是说,AI 应该能够理解人类的情感,并做出相应的回应。
但是,AI 的“共情”与人类的“共情”是不同的。AI 的“共情”是基于对人类行为和语言的分析,而不是基于自身的感受。
尽管如此,AI 的“共情”仍然可以帮助我们建立与 AI 之间的信任和理解。
例如,一个具有“共情”能力的聊天机器人,可以根据用户的语气和措辞,判断用户的情绪状态,并做出相应的回应。这可以增强用户与 AI 之间的互动体验,减少用户的挫败感。
近年来,关于人机“共情”的研究取得了许多进展。研究人员正在开发各种技术,使 AI 能够更好地理解和回应人类的情感。
例如,斯坦福大学的研究人员开发了一个名为 HAILEY[4] 的人机协作系统。这个系统能够实时分析人类的语言和行为,并提供相应的反馈,让人类在对话中更好地表达共情。这套系统的核心在于构建了一个“框架嵌套”的设计:人类主导对话,而 AI 则通过分析对话中的语言特征,实时提供反馈,帮助人类更好地表达共情。实验表明,HAILEY 系统能够将人类的共情表达提升 19.6%,在困难案例中更是提升了 38.9%。
DeepMind 的研究人员也在探索如何让 AI 具备“框架感知”能力。也就是说,让 AI 能够理解人类对它的“智能”的看法,并根据人类的“框架”来调整自己的行为。
这些研究都表明,AI 的“共情”能力,不仅取决于 AI 本身的技术水平,还取决于我们如何设计和使用 AI。未来的 AI,或许更像一个“善解人意”的伙伴,而不是一个冷冰冰的工具。
“框架依赖性”理论,不仅对 AI 技术发展提出了新的要求,也对 AI 伦理提出了新的挑战。
如果 AI 的“智能”是主观的、相对的,那么我们应该如何界定 AI 的“责任”? 如果 AI 在不同的“框架”下会做出不同的决策,那么我们应该如何确保 AI 的决策符合人类的价值观?
例如,一个自动驾驶系统,在“安全框架”下,可能会选择牺牲车内乘客的生命来保护更多行人。但在“公平框架”下,这种选择可能是不道德的。那么,我们应该如何选择“框架”?
更进一步,如果 AI 的“偏见”是不可避免的,那么我们应该如何应对?
例如,一个用于招聘的 AI 系统,可能会因为训练数据中的偏见,而对某些群体的求职者产生歧视。那么,我们应该如何消除这种偏见?
再进一步,如果 AI 的“价值观”是可以被塑造的,那么我们应该如何引导 AI 形成正确的价值观?
例如,一个用于生成新闻的 AI 系统,可能会因为训练数据中的倾向性,而产生虚假或误导性的报道。那么,我们应该如何确保 AI 生成的信息是真实、客观、公正的?
这些问题,都是“框架依赖性”理论给我们提出的伦理拷问。DeepMind 的论文并没有给出这些问题的答案。但它提醒我们,AI 的发展不仅仅是一个技术问题,更是一个伦理问题、社会问题。 我们需要在 AI 的设计、开发、应用等各个环节,充分考虑到“框架依赖性”的影响,确保 AI 的发展符合人类的利益和价值观。
DeepMind 的“框架依赖性”理论,为我们理解 AI“智能”提供了一个全新的视角。它告诉我们,AI 的“智能”不是一个固定的、客观的属性,而是一个动态的、主观的建构。
未来的 AI 研究,应该更加关注 AI 的“智能体性”,更加关注 AI 在不同“框架”下的表现,更加关注 AI 与人类的互动和协作。或许,未来的 AI 不再是“人工智能”,而是“增强智能”,甚至是“共生智能”。
只有这样,我们才能真正理解 AI 的“智能”,并让 AI 更好地服务于人类。而这,或许才是“智能”的真谛。未来的世界,不是人类与AI的对决,而是人类与AI的共舞。在这场共舞中,"框架依赖性"理论可能会催生出一种全新的 AI 开发范式,即“框架工程”(Frame Engineering),专门研究如何设计、选择、评估和优化 AI 系统的“框架”,从而实现 AI 与人类的深度融合。而我们,能否驾驭这场未知的舞蹈,将决定人类文明的走向。
Agency Is Frame-Dependent: https://arxiv.org/abs/2502.04403
[2]AlphaGo Zero: https://deepmind.google/discover/blog/alphago-zero-starting-from-scratch/
[3]AlphaZero: https://deepmind.google/discover/blog/alphazero-shedding-new-light-on-chess-shogi-and-go/
[4]HAILEY: https://www.newswise.com/pdf_docs/16744962898443_Full%20text_%20Althoff%2042256_2022_593_finalpdf.pdf
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-24
搭载国内首个Deep Research功能,元知平台让用户零门槛免费用满血DeepSeek|甲子光年
2025-02-23
Tokens是啥?为啥大模型按Tokens收费?和API调用、订阅收费区别?
2025-02-23
Multi-Agent如何设计
2025-02-23
大语言模型(LLM)正在重构数字时代的底层逻辑
2025-02-23
一键部署DeepSeek-R1等1700+顶级AI大模型,这个神器太强了!
2025-02-23
我本运维,却用Cursor为公司开发了两套系统
2025-02-23
DeepSeek背后的技术基石:MoE、数据并行与模型并行全解析
2025-02-23
DeepSeek 背后的数学:GRPO
2024-08-13
2024-06-13
2024-09-23
2024-08-21
2024-05-28
2024-08-04
2024-04-26
2024-07-31
2024-07-09
2024-09-17
2025-02-23
2025-02-22
2025-02-22
2025-02-22
2025-02-22
2025-02-21
2025-02-20
2025-02-19