微信扫码
与创始人交个朋友
我要投稿
核心观点:
1.AI对社会的影响,短期来看放大了原有的社会问题;长期来看是怎么定位人类跟工具的关系,AI的设计一定是替代人类吗?
AI&Society百人百问:人工智能这两年的发展非常迅速,如果说过去一段大家更多关注技术的突破,那么到了目前这样一个应用广度和深度的时候,AI正在深刻影响我们的工作和生活,甚至会在未来重新定义我们的社会关系和人类角色。你如何看待AI对当下和未来社会的影响?
梁正:说到AI的社会影响,我之前关注AI治理领域比较多,现在也很关注AI和社会的关系,我们的基本观点是什么?我们最早关注人工智能治理时,可能更多关注怎么去推动产业发展、社会进步,后来更多的是想怎么在推动发展的过程中也注重风险防范,注重防范可能出现的各种各样的社会问题。
我们认为AI的社会影响包括了两大类:第一,从短期来看,AI放大了原有的社会问题,包括隐私保护问题、公平问题、歧视问题。这并不是说AI这个工具本身天然地具有这样的问题,而是说AI把原有的一些社会问题放大了,包括我们说AI有倾向性,实际上这是我们输入时的问题所导致的,是把我们的价值观带给了AI,并不能通过价值对齐就从根本上解决这些问题。
我之前参加南洋理工大学的论坛,有一位投资人说,全球范围内的人类对齐问题都是解决不了的,AI怎么跟人类对齐呢?所以我们现在需要重新思考人工智能跟我们人类的关系。从2017年开始,我们就开始关注“主动治理”,或者叫“战略性治理”这个概念,就是说你对技术发展的方向不是持一个放任自流的态度,而是通过有意识的引导,赋予其相应的价值取向。
这个问题不能泛泛地称之为价值观对齐,所谓泛泛的价值观对齐,比如说在语料的训练过程中,你把所有的多样性的东西都让AI包括进去,就像真实社会中有阴暗面的部分,也有光明面的部分,但我们反而认为,应该从设计的角度就去避免这样的问题,它不是在事后才进行,而是应该在前期有明确的规则的要求下去进行训练和设计,这是我们想说的最基本的一个理念。
第二,从长期来看,这也涉及我最近比较感兴趣的一个话题,就是人机的关系问题。最近我们开了一个有关AI for Science的会,我们认为这个事的影响更大,相比短期看到的AI放大原有的社会问题之外,AI将来还会产生新的问题,也就是人机关系的问题。人机关系这个问题也带来一个思考:从现在开始,AI的设计思路一定是AI替代人类吗?
其实不是这样,而是从一开始就应该是从人机合作的角度,去恰当地引导,让AI去做的事情,实际上是我们人类不擅长、不能做、做不好的事情。在过去机器替代人的过程当中正是这样,比如AI的能力,包括信息获取能力、整理能力、推理能力、分析能力、预测能力,能给人极大的助力;但另外一方面,AI替代不了人类。
清华化学系主任刘磊老师讲过一个观点,他说在科学研究中,AI替代不了人类的一点是,我们科学研究里的很多突破,取决于我们通过多样化的、不同的路线进行探索。而你用工具的最大问题是,大家做的事可能会越来越一样,而且很多科学发现是跨学科的,很多东西它是灵光一现,并不是在本学科领域里面涌现的灵感,所以说未来的AI工具会很强大,但不会发展到把科学家都替代掉的程度。
以后在每一个领域,可能都要去解决人机关系的问题,把工作交给AI,会产生很多意料之外的影响,这种影响对于整个领域的发展也不见得是最优的,我们需要考虑好怎么去划定人机合作的界限。这不只是单纯从我们看到的能力替代的角度来思考,而是当你过于依赖一个强大的工具,可能反而丧失了人类创作、探索、发现过程中的其他可能性的产生。
AI未来逻辑推理的能力可能会持续增强,但跨系统的迁移和联想,也就是我们所说的叫作类比和隐喻,才是人类思维过程的重要机制,它是很复杂的。这种思维机制在科学研究里非常重要,而从普通人的角度来讲,人的群体构成是非常复杂的,有各种各样形形色色的人,如果你不能够接触不一样的人,而事事都是依靠一个所谓的完美助手,那么整个人类社会的多样性都得不到保障。这跟生物进化的是一样的,大自然受到很多因素的影响,共同保持物种的多样性。所以说,从长远来看,我们怎么定位人类跟工具的关系,是很重要也很有意思的问题。
AI&Society百人百问:在人工智能发展的早期阶段,大家都充满了乐观预期。效率的提升、创意的拓展,包括提供各种场景下的陪伴。但最近美国也出现了一个案例,就是聊天机器人创业公司Character.AI,因一位青少年对自杀而被起诉。你怎么看待这个案例,AI是真的消除了孤独,还是说把用户带向了一个更深的困境?
梁正:这其实是加大了信息茧房的困境,过去可能也有这样的问题,但是过去可能没有AI工具时,他可能求助于伙伴,求助于外在,求助于家人,但现在有所谓的聊天机器人,也带来了一个问题,就是人自己的丰富性、自主性会受到很大的影响,所以这些聊天工具不仅涉及简单的聊天问题。那么基于这样的理念,我们就需要在一些场景限制AI的能力,AI不是什么都能聊的,也不是在什么领域都去用AI,我们需要设定一个比较明确的界限。就像最近爆出的一些社会问题,有些老人不信儿女,但信短视频,这其实跟我们说的信息茧房效应是很类似的,它其实对我们正常的信任机制产生了非常大的影响,这时候就需要对这些应用场景采取一些干预措施。
设立不能突破的底线 但也要分场景动态调整
AI&Society百人百问:谈到AI治理,现在是全球共同面临的复杂难题。我们能从其他类似复杂问题的治理中,得到什么启发?
梁正:AI治理的几个关键问题,一个是它的非同步性,这在新技术的治理当中一定会碰到,技术永远是比治理或者监管要走得快,技术本身有它发展的一个路径,所以我们在这个时点上对它进行的管理未必适用于它之后的发展变化,我们一直强调的是灵活的“敏捷治理”方式。我们常常可以看到这样的情况。比如说你现在特别关注的是数据、算法等等隐私问题,但也许随着技术的发展,这些问题在未来可能并不突出,你原来所规定的一些问题可能成为它后来发展的一个阻碍。
第二类是分散,AI所产生的一些风险并不是来自技术自身,而是来自于人类怎么去应用它,人类在不同的领域里应用AI,那么我们也很难有一个水平的监管,很难覆盖所有的问题。这正是AI治理所面临的分散化、差异化特点,举个例子,同样的一个技术,或者同样的一个问题,在不同的场景下,大家面临的治理要求可能完全不一样,有些个人的敏感数据,可能在一般的场景中是大家不太关心的信息,但是可能到了医疗、金融场景中,就变成了非常有价值的信息。
AI&Society百人百问:数据是AI产业发展的重要基础,在过去互联网产业的发展中,也出台过一些相关的规制措施,未来面对AI的应用场景,会是一个什么样的协同机制?
梁正:我们一直提的一个概念,一方面是说针对AI所产生的新型治理的问题,需要保持灵活的态度,根据发展变化,进行调整和规范,当然提前是必须设立一些不能突破的底线;另一方面是分场景治理,我们更多是说借助已有的规制手段和工具,例如在数据管理上,我们已有数据安全保护办法,在这种情况下就不需要提出额外的关于数据和隐私的保护要求,因为这是一个基础,先满足这个基础,才能去考虑新的应用问题。
现在可能争议比较大的是,AI是不是在某些特定的条件下会突破现有的一些要求?就像我们现在说的数据可用,但是不可见。其实这也是新的问题,但如果回到其本身的要求来看,是没有变化的。个人的信息也好或其他信息资源,只要通过技术手段处理,没有办法识别或者是还原出来,就可以利用原来的手段去使用它,不应该再去建设新的规制。这也是一个我们所说的跟过去可能会有所差异的治理,叫分场景治理,利用已有的治理工具,一方面在水平层面上设定底线原则,另一方面则根据不同场景进行灵活调整。
AI&Society百人百问:在AI的治理上,目前来看不同国家的差异性也比较大,包括欧盟、美国都有不同的倾向,对不同的治理措施进行横向比较的话,会有哪些启发?
梁正:美国今年比较大的争论是加州法案,到底要不要加强限制,最后加州州长加文·纽森为什么否决这个法案,我觉得他的理由也是跟我们一致的。第一,是否通过阈值的限制,就能真正避免误用和滥用风险?其实是避免不了的,他认为这样带来的是成本,但其实没有真正解决大家现在所关心的问题。
李飞飞的观点是,如果你要是用加州法案去做责任追溯,它的研发者就会投鼠忌器,毕竟研发者需要承担连带责任。如果产品在其他地方没有按照设计初衷使用而出现问题,设计者、研发者仍需要承担责任,这可能会导致研发者因为害怕风险而不敢去尝试。
所以从整体上来看,美国并没有给AI直接施加一个非常严格的限制。相反,他们正在推动一些领域的标准建设,比如安全评测、数据训练标准等。这些举措更像是在建立一个QA体系(质量保障体系),旨在提高AI技术的整体质量。因为AI现在面临的一些问题,很大程度上是由于质量参差不齐所造成的,比如使用数据的问题、大家能力的差异等等。在这种条件下,我们如何提高AI技术的质量呢?
我认为关键是要解决一致性问题,提高整体质量。同时,我们还需要关注风险。应用阶段的风险取决于具体的应用场景。比如,在to B端的应用中,很多AI技术因为无法解决可能出现的错误而难以落地。我举一个最近的例子,我们去某地政务数据局调研时,发现他们开发的一个政务问答大模型系统,虽然花了一年半时间去开发,但只能对内服务,不能对外服务。因为一旦对外服务,如果出现错误,由谁来承担这个责任就变成一个难题。
我们需要思考在现有的条件下如何提升AI的质量和准确性,这是国内目前在管理上所面临的挑战,即确保内容的安全,不能出错。但真正将AI应用到具体行业领域后,每个领域的需求都可能不同。因此,我们正在逐个场景进行梳理。现在,我们采用分散的方式,在不同场景下探索并建立相应的规范,这种方式可能更适合AI的应用和发展。
欧洲则试图推行水平式的监管,但也不可能穷尽技术上的所有要求。他们采取了分类分级的方法,识别出高风险的场景,并针对这些场景提出了一系列要求,如披露、登记和评估。评估方面最早主要关注的是算法可能带来的影响,而不是算法技术本身的先进性或性能。欧洲更多是基于人权进行考虑,即AI的一切应用都不能侵犯人的基本权利。因此,他们识别出的一些高风险场景可能与我们的理解有所不同。例如,他们认为工作中的评价系统、录音审查系统等都是高风险场景,还有教育场景也被视为高风险。
AI技术的应用实际上都会对人的发展产生影响。一旦将技术应用到实际中,可能影响人的认知,导致单一化倾向,甚至可能让人产生依赖性,进而影响到人的多元化发展。换句话说,这些问题都涉及到人的福利或权益,因此大家关注的问题角度自然会有所不同。我们强调的是权力的行为规范性、标准性,即在大的原则上比如价值观上不能产生偏差。然而,当涉及到个人层面的影响时,我们该如何保障人类的权益呢?在现有的管理体系中,包括救济制度和赔偿等方面,其实并不完善。
因此,大家在这些角度上关注的问题并不一致。关于下一步的发展,我认为我们需要同时关注三个方面:首先是个人的权利。今天中午我参加一个会议时,新加坡一个研究机构分享了他们正在研究的AI与儿童权利的问题。这让我意识到,我们过去在关注AI时,很少考虑到它对儿童成长可能带来的问题,不仅仅是教育问题,还包括儿童的发展权和个性成长等方面。我们目前看到的更多的是AI对于儿童知识、技能上的帮助,或者是技术可能带来的新的不平等和鸿沟,但对儿童基本权利的维护考虑比较少。
从国际视角来看,目前各国在这些问题上尚未达成共识。当出现问题时,大家更愿意在安全风险和犯罪领域进行讨论,比如失控性风险、非法使用AI、恐怖主义、合成化学毒品和化学武器、深度伪造造成的诈骗等,这些都是国际上共同关注的,国际上都在探讨能通过什么样的方式解决这些问题。
不能因为有反对声音,就阻止技术发展
AI&Society百人百问:目前来看,其实各国都有自己的关切点。未来随着时间的推移,是否会在类似教育问题、儿童发展问题上逐渐达成共识,形成被普遍接受的类似国际公约这样的内容?
梁正:关于儿童数字权利,我们可以去看看现有的公约或倡议,在更一般的层面上,比如联合国正在推动的数字契约,它试图建立数字权利体系,除了日内瓦的人权公约外,还有很多其他公约和法规可能与AI的使用相关。我认为,这些公约和法规的要求应该能够涵盖AI的使用场景。此外,如果技术不能得到妥善使用,可能会影响到人的发展权、生存权、平等权和自由权。因此,我们需要在国际层面上建立起一个类似于国际公约的框架,来规范AI的使用,保护人类的权益。
AI&Society百人百问:当我们谈到AI治理时,面临着一个较大的分歧,就是大家对同一个问题有不同的理解,比如有的强调安全,有的强调发展,可能在不同国家之间、行业内不同企业之间,都会有不同看法。在AI快速发展的背景下,我们应该如何找到一个好的平衡策略?
梁正:现在最难的部分可能就是如何平衡发展与治理。我们在7月份的上海WAIC大会上强调了发展与治理并重的重要性。我的基本观点是,我们需要明确区分哪些问题是由发展不足导致的,哪些问题是由发展过度导致的。
我们需要对技术的发展、产业的应用有充分的了解,不能仅仅基于社会反应就对技术进行限制,因为这样做可能会误伤那些仍在发展初期的技术,毕竟技术的问题有可能会随着大规模的应用和迭代自然得到解决。
以自动驾驶出租车为例,它在武汉上线后,第一,实际上投入的车辆数量很少,第二,它们对交通的影响并非源于不遵守交通规则,反而是因为它们过于遵守规则,导致与人类驾驶的交通方式不兼容,从而产生了秩序上的冲突。
这并不是说它们发生了撞人等安全事故,实际上是一个小规模应用与旧有系统不兼容所带来的问题。当你真正与乘客交流时,你会发现他们首先关注的是成本问题。乘客们不会过多关心最终会替代谁,他们更关心的是价格和安全。从这一点来看,自动驾驶技术替代人工驾驶的趋势是不可逆转的。
因此,当有反对声音出现时,我们不能因此就阻止技术的发展。在武汉自动驾驶出租车引发争议后,我曾表达过两个观点:第一,从技术发展的角度来看,自动驾驶出租车替代传统出租车是大势所趋,这是因为它在便利性、安全性和经济性方面都具有明显的优势。第二,我有一个比较尖锐的观点,替代的这部分岗位究竟是不是应该被保留的岗位?
当下网约车司机工作很辛苦,工作时间越来越长,收入越来越低,这些岗位本身可能并不具备长期性。随着技术的发展,无人驾驶的优势会越来越明显,优于有人驾驶,甚至在某些情况下,更远的将来有司机的车辆可能会被视为异常情况。
技术本身的发展有一个大的趋势。那么在这种背景下,我们该如何判断呢?如果你的政策出台只是为了应对当前社会的情绪反响,那可能就等于叫停了这项技术,或者阻止了它规模化的应用,这样反而可能阻碍它的发展。
但换个思路,如果我们承认这是大势所趋,那么我们就可以思考如何通过交通管理和规划,比如车路协同、专用车道建设等方式,来避免它与现有交通系统的冲突。同时,这种方式也能促进技术的快速迭代和成本降低,使技术能发展得更好。在这种条件下,我们就能实现一个相对平稳的过渡。
这两种态度其实是有本质区别的。就像我们看到的自动驾驶,之前可能还因为能力不够、事故频发而带来较大的社会冲突;但现在,其实我们已经可以处理好它与现有系统的匹配问题了,在应用上已经到了“临门一脚”的阶段。
过去几年,从企业到政府前面做了大量的工作,才使得自动驾驶能够上路,甚至能在全域实现无人驾驶。这背后是巨大的投入,而且这项技术一直都在迭代中,我们现在是以一个非常小心谨慎的方式去测试它。所以,当出现问题时,我们要准确判断问题的性质。如果你还认为这是因为技术不成熟就贸然推向应用带来的混乱和风险,那问题的性质就完全变了。
其实,综合各方面的反馈来看,对自动驾驶这件事,大家形成的一个共同认识是:这个问题其实是因为发展还不够,应用范围还不够大,所带来的阶段性冲突。这并不是说它的能力不成熟,技术不成熟造成的。
AI&Society百人百问:自动驾驶技术在国外的推进也很快,这代表了未来的一个发展趋势。但从大众的角度来看,大家之所以比较担心,还有一个特殊的因素就是,最近几年在面对就业变动、收入波动的时候,很多人会把开网约车作为一个过渡性就业措施,成为了一个就业缓冲的蓄水池,所以这种情绪可能也影响到了人们对这项技术的看法和接受过程,在新技术的应用过程中,如何与社会的接受度相平衡?
梁正:就像当年外卖小哥被陷在算法里的新闻一样,一下子就引爆了社会舆论,包括你刚才提到的就业过渡的问题都很现实。我觉得对于AI以及这种技术的应用,社会的认知和接受,也是一个很重要的因素。但我们也可以换个角度考虑这个问题,为什么会有这么大的网约车群体存在呢?是因为很多人没有找到好的、高质量的就业岗位,只能依赖这些所谓的过渡岗位。
所以问题的实质是,不仅要考虑如何满足大家的过渡性就业需求,更重要的是如何通过技术创新,创造更多高质量就业岗位。我们现在的问题是在这方面做得还不够,导致社会上对新技术的接纳产生一些抵制情绪。这其实是一个需要整体上调整的问题。我们现在提新质生产力,不仅是要靠解放生产力,更要靠调整生产关系。在对新经济的治理中,大家可能注意到最近政策面开始再次强调包容审慎,就是要激活新经济在创造增量就业上的潜力。
当对技术形成一致性认知,再去做沟通就很难
AI&Society百人百问:AI向善其实是行业里一直在倡导的一个理念,刚才梁老师也提到,有些理念、规则需要前置在产品设计环节,而不是说出了问题之后再去纠正。对于推动科技行业的AI向善创新,你有哪些建议?
梁正:我觉得行业其实可以做很多事情。首先,行业需要对技术发展的真实情况有一个客观、真实的反映。比如大模型这波技术,如果行业不能实事求是地宣传其能做什么、不能做什么,以及哪些方面可能还有欠缺,那么就会给整个社会一种行业已经发展过头的感觉。在这方面,行业其实相对欠缺实事求是的态度。当然,行业也不能完全不去讲,毕竟面对当下的科技发展环境,公众也需要你去给大家解释清楚你到底做到什么程度了。但目前来看,行业里这种深度、真实、客观的反映比较少,容易被舆论倾向带着走。
其次是我们常讲的伦理问题,即优先性的问题。从研究的角度来讲,什么叫做负责任的创新?我们需要在价值引导下进行。比如苹果为什么让用户选择否关闭cookie,这里面是有它对伦理的认识在里面。新技术的负责任创新上,我们或许可以参考公司治理的发展历程。公司治理中早期主要是强调股东利益最大化,后面慢慢考虑到用户、消费者和社会,考虑到企业社会责任、ESG。当我们把这样一个过程应用到科技行业的时候,其实也是一样,从你最开始满足用户需求,到考虑到行业伙伴,再到主动承担社会责任,它也是一个不断进化的过程。
第三个其实是说,你要解决这些问题靠谁?最重要的还是靠企业自己,企业要不断地基于伦理或基于社会责任的视角下去完善技术。现在我们看Anthropic可能估值上没有OpenAI那么高,但大家可能觉得它口碑越来越好。现在你会觉得OpenAI在商业化上是一骑绝尘,越走越远。但随着一些问题的出现,大家可能会越来越倾向于选择慢一点的发展方式。Anthropic正在走出一条不一样的发展路径,但这条路可能要难一点,因为你在安全上面可能要做很多的限定工作,并进行相关投资。但不管是哪条路径的选择,这都是业界才能做的事情,不是靠其他外部力量给你解决。当然,这里面涉及很多能力的培育,可能需要和学界一起共同寻找,但总体来说业界还是掌握着决定权。
AI&Society百人百问:今年在中法签署的 AI 治理联合声明中,也特别提到了“智能向善”的宗旨,后续会以什么样的形式推进这样的理念落地?
梁正:这种倡议是相对理念性的,它是价值观引领。AI向善其实有一些很具体的内容,主要有两个方面,一个是Good AI。Good AI应该是安全的、普惠的,就像我们之前说的数字技术要普惠,比如对老年人等群体,国内企业也做了很多工作,这就是Good AI。
再一个是AI for Good的范围。现在大家普遍认为,AI在商业上的应用是重中之重,但在解决社会问题方面,这方面的作用发挥其实不够。就像我们研究员有一年主办的国际论坛上就专门讨论过AI for SDG的应用,如何通过AI去应对气候变化、应对能源短缺、解决社会不平等问题等等。今年我们也在和UNDP合作一个报告,讨论AI怎么去赋能减贫等问题。整体来讲就是AI怎么去助力发展问题。
换句话讲,AI for Good在某种程度上就是AI用于发展。发展的概念不是说我们只要增长,而是有更丰富的内涵。我们现在提高质量发展,之前有五大发展理念,而且最终要落实到人的发展上。如果说AI for Good,就需要最终落实到AI for Human(人工智能为人类服务),这就涉及社会的各个方面,所以这些是要更多探索的,怎么去用它解决发展问题。
我们做的很多工作,之前的一些倡导都已经看到一些效果,比如通过人脸识别技术在“宝贝回家”等公益项目中的应用,还有一些环保项目比如蔚蓝地球,这些都是企业社会责任的体现。但从更宏观的视角来看,如何解决未来的劳动替代问题,国外也有公司推进基本收入实验,这是一个非常前瞻性的视角,我们的企业也应该从这个角度去做一些工作。
特别是当人在使用AI工具时,它会对个人、群体和家庭产生哪些影响?这些实验是很有价值的。有些人获得激励后,可能会去寻找更好的机会,对不同层面的人来说,影响是不同的,这些是我们国内的企业也可以更多去思考的。
再比如,我正在正在带博士生做的研究是关注智能政务工具的推广对基层公务员的影响,以及将来是否会对他们的工作产生大的变革。已经有研究发现,像执法记录仪、智能摄像头等街头管理工具,对城管等执法人员有很大的影响,过去他们有较大的自由裁量权,但现在基本上所有的行为都要在监控和严格操作程序下进行。此外,从社会层面来看,公众会怎么感知这些变化?是因为普遍的感觉都改善了,认为自己得到了更好的服务体验,还是从他们的角度来看,并没有明显的差异?这两个角度都有研究者在做。
以上这些研究关注的是AI应用带来的实际影响。另外一方面,欧洲的一些学者很早就开始做科技伦理的研究。他们认为,所谓的Ethical AI实际上一定是一个社会互动的结果,需要把使用者的体验纳入进来。而不是从一开始设计时,只从商业利益的角度去考虑。比如英国曼彻斯特大学在做合成生物学领域的负责任研究,会与科学家、社会科学家、社会公众等有兴趣的人一起讨论,并随着项目进行不断迭代,这样一个小组也会一直一起工作,这种工作方式我们过去考虑得比较少。
但如果我们不关注这个问题,将来可能会面临很大的风险,比如投入巨大的资源后开发的产品和技术,可能会因为社会可接受度或监管上的风险而无法实现商业化。过去我们有过这样的例子,比如转基因技术,虽然我们当时在国家中长期规划里投资了这些重大项目,但相当一批技术实际上没有办法真正实现商业化,因为公众对这项技术的接受度很低,只要有人做这个事情,就会被钉在耻辱柱上。
当某个领域形成了一致性认知的时候,你再去做正常沟通就很难了。AI的发展也有点类似。如果出现重大的误区,可能会很难纠正。所以我们也一直在讲这个问题。比如自动驾驶,如果你不去证明它的安全性,那现在可能就会被冷处理。还有一些生成式技术,自媒体在宣传时更多地强调了它的能力,夸大了它的效果,但在夸大它的能力同时我们也夸大了它的风险。一旦有风险事件,我们就会把它放大到整体,而不去讲它产生的前提,从而导致公众恐慌和不信任。
未来科学家要能提出AI想不到的问题
AI&Society百人百问:关于AI发展还存在一个问题,就是大家现在提到的文化多样性问题。梁老师刚才也提到,随着AI工具的使用,大家的思考会不会越来越一致?包括一些小语种文化,会不会加剧消失?
梁正:这是非常值得讨论的议题。特别是语言模型,如果一家独大,小语种可能就没有生存的空间。就像科学家考虑的文化多样性的丧失,可能影响很长远,就像整个生态圈一样,多样性的维持有很多偶然因素在里边,有些事可能并不先进,但它不同,这种不同是很重要的。就像每个科学家都有自己的喜好和路线,这种不同会带来很多新的、新奇的想法和跨界交流,放到社会层面也是一样。
所以我们在使用机器的时候,首先要强调机器要在人的视野下,我们可以去探索怎么和它很好地共存,但并不是说是一个替代的关系。我们一定要去探索怎么跟技术共存,引导它向哪里发展。我其实本行是做创新理论研究,很大程度上是借鉴演化理论的一些思想,关于物种的多样性等等,这些概念里有一个基本的判断:演化这个方向既是自然冒险、突发变化的结果,同时也有我们有意选择的影响。所以我们现在认为技术的发展,其实是可以施加影响的。我们并不是说对技术没有任何办法,实际上我们在很大程度上是可以去对它施加影响的,这个影响我们希望是理性的、平衡的,既不是过于神话也不是黑化,而是说我们在使用当中,怎么让它服务于我们,形成我们想要的样子。
学术上专门有个词叫“塑造”,英语叫mold,它就像拿泥捏成一个人一样,你要造成一个什么样的形状,这个过程是一个“形塑”的过程,技术是塑造出来的,人可以主动引导、主动设计。这方面就与教育特别相关。在工程师教育方面,国内目前有很大的欠缺。昨天我参加一个论坛,有投资人提到,说在中国投资时,首先想到的是赚钱,因为缺乏其他评价标准;而在美国,有些风险投资者并不只看重赚钱,而是更看重项目的有趣性和创新性。这就反映出创新生态的差异、东西方文化的差异,中国在投资生态上缺乏多样性,连续创业者和投资人的多样性都较少,导致在很多领域出现一窝蜂的现象,这对技术发展有一定影响。
AI&Society百人百问:您对AI对教育的影响怎么看?
梁正:我所在的北京市人文中心也做AI和教育相关的研究,但不限于教育。我们更关注AI对人的影响。我现在正承担的一个国家科技创新2030重大项目,就是研究人工智能在重点应用场景领域的影响和应对,其中也包括教育。我们近期会出一本关于“人工智能+教育”的白皮书。我也专门写过关于AI对教育影响的文章。我们认为,AI会改变学生学习的内容和方式,例如,学习科学课可能更适合用AI来讲解数学知识,而老师则更多地负责教学生做人,学习的地点也可能发生变化,学生可能不需要每天都在学校,而是可以更多到社会上去实践。
丹麦在这方面做得很好,他们很早就让孩子们了解社会的真实运作,比如去警察局、医院等地方了解社会运作。我们很多孩子到了很大年龄才第一次接触这些真实的场景和实践。我们现在所说的劳动教育,其实强调的就是最真实的场景和实践,以及和同龄人的相处,这些都可能成为学习的内容,而学习的方式也不再是仅限于教室,比如在企业里参加项目,像一些天才少年直接写代码都是可能的。
应该看到,现有的教育方法,是工业化时代的模式,已经落伍了,我们需要更个性化和多样化的学生培养方式。目前清华也在推进大学的人工智能教育应用,比如用AI助手辅助学生学习和老师的教学活动,但这也带来了基础教育的问题,很多东西其实没有必要在课堂上讲,因为AI完全可以解答,那么老师的角色也会发生变化。
从教学方式来看,现在已经在用大模型和AI助手来支撑教学活动了,但最大的变化还是谁来教、教什么、怎么学、学什么的问题。而最终我们还是要通过教育让大家认识到我们和机器的差异,学会如何和机器共处,这是AI教育的一个重要环节。我们不仅要教大家如何使用AI,更要让大家充分认识到我们怎么和AI相处,这可能是未来AI发展到一定阶段后必须要面对的问题。
未来的人文和艺术教育,以及我们的人生体验经历,可能都是非常重要的。甚至可以说,在有限的生命里,有更丰富的体验才是最重要的,这可能是我们与AI不同的地方,AI可能永远不可能有这样的组合和独特的体验。而人类如果没有这样的多样性,其长远发展可能会受到无形的约束。
虽然AI在科学研究和发现方面可能比我们能力强得多,但我们还是要看到人类是如何拯救自己的,比如《三体》中展现的“思想钢印”就是一个典型的例子,我认为刘慈欣的这种思想并非他独有,而是源远流长,如果科技发展到机器乌托邦的程度,那将是一件非常危险的事情,无论是黑客帝国还是其他科幻作品,它们都强调了人的独立性、独立思考和自主性的重要性。
然而,我觉得在这些方面的教育上,我们还存在欠缺。我们不久之前刚刚讨论过AI在科学研究中的应用,那次讨论非常热烈。有老师提到,未来的科学家可能不再是传统意义上的科学家,因为有一个比你聪明一万倍的东西在那里,但未来的科学家可能是那种能提出AI想不到的问题的人,你可能基于独特的体验和经历,对人类社会和物理世界的认识有着独特的见解。
我最近重新阅读的一些关于智能的书籍,这些书籍在描述人类未来时,都强调了人之所以为人,是因为人能在头脑中凭空想象出不存在的东西,即使AI的能力强大一万倍,它也不一定具有这种无中生有的能力,而我们确定的是,人类具有这种能力,而且只有那些所谓的“偏执狂”才可能基于这种能力去做一些最初看似不可能的事情。他们相信这些事情能够成功,而我们很难想象AI能够做到这一点,这也许才是人和AI最大的不同之处。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-07-10
2024-05-15
2024-04-24
2024-06-23
2024-08-04
2024-07-10
2024-09-14
2024-06-19
2024-07-10
2024-06-14