AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


OpenAI 创始人Greg Brockman:AI真正能发光的地方在于启发性
发布日期:2024-10-02 07:09:38 浏览次数: 1774 来源:Dance with GenAI


我想先谈谈OpenAI,谈谈背后的公司,但我想先从ChatGPT开始。好的,时间回到2022年11月22日,你们发布了ChatGPT。这是一款由OpenAI开发的人工智能聊天机器人,基于大型语言模型,名为GPT-3。2022年11月发布后,这款软件在两个月内积累了超过1亿用户,成为历史上增长最快的软件应用。为了提供一些背景信息,Facebook Meta花费了4.5年时间才达到1亿用户,TikTok则只用了9个月。那么,ChatGPT为什么能成为杀手级应用呢?

确实,我认为这个问题值得我思考。我们实际上已经有了这项技术,背后的核心模型是在一年前创建的,所以这并不算是新科技,但做出一些不同之处。我们做了一些额外的工作来使其更符合预期。可以与之对话,它也能按照你的需求行事,但更重要的是,我们使其更加易于使用。我们为这款软件设计了一个非常简单的界面,我们尽量使用最基本的界面,把它免费提供给所有人。

非常有趣的一点是,随着这款应用逐步流行,人们开始使用它,我们开始看到人们对可能性的误解。我认为,最大的启示是,我认为我们作为一家公司、作为这个领域的参与者,必须确保人们了解可能性、不可能的事情以及未来的发展情况,这样才能弄清楚如何在社会中吸收这些技术,如何最大化积极因素,如何最小化负面影响。

AI对话机器人是一种危险的存在,很难推出市场,但你们发布的内容中有一些令人惊讶的地方,因为它没有被滥用,学习了很多。这突然引发了一波疑问:我们能做这个吗?我们能做那个吗?为什么现在是现在?因此,在准备发布ChatGPT时,我们对其团队说最重要的一件事是,绝不做任何看起来有点可疑的事情,只要我们不能在三天内关闭它。因为当你发布这款应用时,很难不去这么做,对吧?

我们知道已经进行了大量测试,我们有自己的内部红队,进行了多次内测,还有成百上千的测试者,但那与向用户全面展示它还有很大的区别,涉及到各种攻击和美好的可能性,以及人们将如何应用它。因此,我们认为,我们已经进行了长期的迭代部署。事实上,从2015年6月左右开始,我们就开始推出可以在API上使用这些语言模型的产品,让越来越多的人能够使用它们。但我们知道,这将是一个不同维度的问题。而且我们第一次构建C端应用。所以我们确实感到担忧,但我的团队真的做得很好。

我想谈谈ChatGPT的未来,因为我知道很多观众,尤其是我们有大量用户在这个观众中,对此很感兴趣。但首先,我想回溯一段历史,因为ChatGPT背后的企业是OpenAI。在硅谷世界中,那些令人兴奋的公司一出现,每个人都在谈论它。而OpenAI则与众不同,它只是默默待在后台,直到你们发布了这些产品,引起了文化变革,开始了一系列问题。让我们回到过去,2015年7月,你们在梅隆帕克的玫瑰伍德酒店参加了一场晚宴。不知道在座的人有没有去过玫瑰伍德酒店?确实是一个很特别的地方。你们坐在那里,有人在讨论什么,我们在吃什么,为什么在那里?我保证我接下来会回答这个问题。嗯,当天晚宴上的菜单我记不清了,但我想知道埃隆·马斯克在吃什么?

我们在晚宴上讨论了未来人工智能的潜在可能,以及我们是否可以从中做点积极的事来影响这一领域。OpenAI的联合创始人艾隆、萨姆、伊利亚和其他人都在那里。问题在于,现在是否还为时过晚来组建一家实验室,汇集一些顶尖人才?

我们都看到人工智能似乎即将来临,真正意义上的人类级别的机器即将能够实现。那么我们作为技术专家,关心这一问题的人,可以做些什么来在更积极的方向上引导呢?晚宴的结论是:虽然这里似乎并不显然无比困难,但在某种程度上是可能改变的。

我感到有一种紧迫感。我认为这里最容易忽视的一点是,现在人们看到ChatGPT,他们会感到可能性无处不在,能看到什么是可能的,就像不再只是科幻成为了真正可以使用的东西,但也很难想象明天就变得可能。

我在很长一段时间内都一直在思考这种指数性的增长。我记得读过阿兰·图灵1950年的图灵测试论文,他说的一件事给我留下了深刻印象:你永远不可能编程解决这个问题,相反,你需要一个能够学会如何做这件事的机器。对我而言,这是一个‘啊哈’时刻,拥有能够解决人类甚至无法想到如何解决的问题的机器的想法,显然是变革性的。如气候变化这种全球性问题,或是给每个人提供医学服务,所有这些难以触及的事物,我们不知道如何做,但如果能利用机器来帮助完成,我们会这么做。

我认为我们都感到,技术已经开始发生。深度学习是一种一夜之间成功的技术,实际上耗费了70年。在图像识别方面取得了突破,但真正开始到现在的进展还需要另外10年。但我们都看到了这条指数曲线。我们认为,我们必须推动这条曲线,引领它。所以那时,你之前是Stripe的研发总监,这家公司叫Stripe。你确实感觉到,就是说,当我前后来看,我们可以构建更好的东西,我们希望能构建一个以人为本的管理工具,而不是反人类的工具,当然,这之间有一个微妙的界限,这在过去十年中,我们已经学到了很多。

我认为,在这个过程中,从某种程度上来说,我们想要的不仅仅是构建一个更好的东西。那些在这个领域做研究的人正在取得很棒的工作,但我希望的是,我们能贡献一个不同的方面。我想,关于人工智能的重要一点、关于我们价值和使命的核心是,我认为这应该是一项全人类的事业,而非少数人的事业。

当我们都在思考这一问题时,‘我的一部分是什么?我该如何拥有它?’这是我所认为的真正危险之处。那么,你们可以谈谈公司的结构和现在的情况吗?毕竟,那已经是七年前的事了。让我们看看幕后的这些细节。我看到了萨姆·阿尔特曼的一个说法:我们设法建立了一个结构,以确保我们的激励措施与理想的结果相一致,这到底意味着什么?好吧,所以这是一个看起来不太寻常的公司,在何种意义上?

我们最初是一家非营利组织,因为我们有一个宏大的使命,但我们不知道如何把它具体化。我们知道我们想让通用人工智能惠及全人类,但我们不知道该做什么。因此,我们最初是一家研究实验室,聘请了博士生,进行了一些研究,开源了一些代码,我们的原始计划是开源一切。

你会想,这一切要何等令人印象深刻,你可以将一切提供给任何人都可以自由改变。如果有一个坏人,那么你会有70亿好人来监督和抵制。我确实认为,我们可以从这种思路开始,但我和伊利亚在公司早期确实亲自管理,花费大量的时间思考,如何将这一切转变成我们所预期的那种影响,以便真正地改变AGI通用人工智能带来的积极效应。

我认为我们找到了两个关键因素。一是规模问题的重要,我们得到的所有令人印象深刻的结果让事情进展得更快,我们意识到需要更大的计算机。好吧,你将需要筹集数十亿美元来建设这些超级计算机。我们确实努力以非营利组织的身份筹集这笔资金,我记得在一次筹款现场,我和一些知名的硅谷投资者对视,他们中的某人说我们需要筹集1亿美金,而这对于非营利组织来说是巨大的数字。我们互相看着对方说,是的,确实是个巨大的数字。但事实上,我们确实成功了,我们筹到了这笔钱。

我们还意识到,如果资金不足以支持这些计划,假如在座的有人知道如何为此筹集资金,我们将会立即聘请你。但我们也意识到,如果想要实现这个使命,我们需要一种能够将我们带到目的地的工具。因此,我们并不是反资本主义。我们这么说的理由并非是为了设立非营利组织,实际上,资本主义在它应该效用的范围内是一种非常有效的机制。但如果在一个单独的公司中开发出了迄今为止最强大的技术,且这一技术比现有任何公司都更具价值或更强大,那么仅依靠资本主义可能并不够。因此,我们最终设计了一个量身定做的结构,非常独特,我们有一个私人合伙公司,所有文档都是量身定制的。

如果你是个法律专家,你会对此感到非常有趣,但设计这个结构的核心是,我们实际上由非营利组织作为管理机构。

所以这个非营利组织拥有了一切,包括一个我们称之为有限合伙企业的愿景机构。合伙人拥有利润利益,但是这些利益是有上限的,所以投资者和股东只能获得固定的一部分利润。我们花费了很多心思确保董事会中有大多数不获取利润利益的人,为了真正改变激励机制,使公司运作方式符合我们的使命。

我认为,这种努力平衡了如何接近使命,如何使之可行,如何通过非营利组织来实现这一点。这些都是在我们历史中不断出现的问题。当我们回看历史,尤其是人工智能的历史,这并不是全新的发现。所以我们现在为什么认为这是一个转折点,所有公司都在投入资金的原因是什么?为什么现在,我们都在谈论这个话题?现在技术本身是怎么回事?

确实,我认为这里根本性的东西是指数问题。无论你听到多少遍,这仍然是很难或不可能内化的。当我们回顾时,我们进行了对计算能力增长的研究,看到了一个每月增长3.5个月的指数曲线,相比于摩尔定律的18个月。这在过去10年中一直持续,但我们实际上追溯得更远。你可以看到,这条指数曲线已经持续得有些微小的变化。

之前是摩尔定律,但在过去十年,人们一直在说,通过增加更多的投入,你们可以比摩尔定律走得更快。我认为发生的事情是,我们拥有了积累价值,但放缓的趋势,而不是试图一下子就得到快速致富之类的想法。AI一直是一个更稳定、更渐进的积累价值过程。而且我认为有趣的是,通常情况下,如果一种技术正处于寻找应用的问题阶段,其接受度是很困难的。它是一种新的技术,每个人都需要改变业务模式。AI尤其如此,语言方面,尤其如此,每个企业本质上都是一个语言企业。所以如果可以增加一点价值,每个人都会想要这种技术。我认为这是推动采用和兴奋的主要因素,它能够无缝融入人们已经想要做的事情中。

2017年,我们有一个名为Transformer的模型诞生了,它能够将非常多领域的信息看作语言,音乐、代码、语音和图像都可以视为一系列的Token令牌。如果我们能为你们在构建的东西提供一种真正能够加速的技术,这非常有趣。是的,我认为他们看待进展的方式,技术驱动因素是,很容易在它的一部分找到这些东西。Transformer确实非常关键。但Transformer的来源实际上是,怎样从我们使用的计算硬件中获得良好的计算利用率?这些GPU确实是非常杰出的工程成就,需要大量的投资才能实现。还有在它们之上的软件堆栈。所以其中的每个部分都需要时间才能发展。

从内部看,对语言模型的早期工作非常有趣,我们正在构建与我们现在所做的非常相似的语言模型,从2016年开始,Alec Rad只对语言充满热情,他在构建小聊天机器人,我们也非常支持他做任何他想做的事情。同时,我们也在投资严肃的项目,确保他能得到需要的一切。

2017年,我们有了一个非常有趣的结果,即我们训练了一个基于亚马逊评论的模型,预测下一个字符,然后继续预测。尽管可能看起来不那么印象深刻,但这让我们知道它会奏效,我们不再局限于语法和逗号的位置,而是转向了语义。所以我们知道我们必须要继续努力。谁知道呢?这就是ChatGPT真实的故事,事实上,总是要从小开始。每天都有关于技术使用的新头条。昨天是关于企业如何使用聊天机器人写并自动化带有个性化的内容的邮件,而ChatGPT可以帮助那些在法院上无法承担费用的人代表自己。很明显,你坐在微软的位置上,从你们的地位了解到微软正在颠覆搜索,那对于你们来说,具体来说,你们认为生成式人工智能最具颠覆性和变革性的应用场景有哪些呢?

确实,首先我想分享一个个人的小故事。医疗领域绝对是一个高风险的领域。在使用这种技术时我们需要非常谨慎。但即使今天,我想谈论一个对我来说非常实用的地方。几年前,我的妻子患了一种神秘的疾病,她的下腹部出现跳动疼痛,被诊断为阑尾炎。我们去了第一位医生,医生说他知道这个是什么,并开了抗生素,但并没有效果。然后我们去了第二位医生,他说这是一个罕见的细菌感染,并开了另一种超级强力的抗生素。我们反复找了四次不同的医生,直到最后一位医生通过超声确定了病因。我确信的是,我用了一个我刚才描述的几句话输入了ChatGPT,它第一条就建议我注意阑尾炎,第二条说是变异性囊肿破裂,而事实确实如此。我希望在医疗领域有一种不依赖于人的工具。我不希望它替代医生,也不希望它告诉我需要服用那种罕见的抗生素,也不希望它会告诉我说的是医生。因为ChatGPT有时也会自信地给出错误的答案。这有点像在娇弱的酒鬼面前要小心。确实,我们正在对此进行研究。是的,值得注意的是,我们发现我们的模型比我们意识到的更可靠,可以判断出它是正确还是错误的,但我们目前正在销毁这些信息,所以在一些训练过程中我们会这样做。当然,这说明我们可以借鉴的经验之一是,这个‘空白页面’的问题,我认为生成式AI真正能发光的地方在于启发性,它更像是‘帮手’,帮助你产生创意,为你提供基于这些创意的想法,并且只要你愿意,随时可以帮助你实施这些想法。

ChatGPT现在已部署到数百万用户。有没有什么让你感到惊讶或意外的效果,以及人们如何利用它?当然,确实如此。总体来说,我认为最有趣的地方就是看到这么多人都在使用它,这在很多令人意外的方面都有体现。我认为知识型工作可能是我们真正需要重点关注的领域。我们内部的一些员工,不是以英语为母语的人,也在使用它来改善他们的写作技能。最初有一个使用过ChatGPT的OpenAI员工,他突然发现所有东西的写作风格都改变了,变得更有条理和更易理解。起初我们并不明白到底是发生了什么。他曾经雇佣某人来帮他写,但实际上那非常困难,因为有大量的繁琐工作,而且他无法通过ChatGPT传达一些关键的信息。我认为这让我看到了人们使用它作为认知辅助工具,帮助他们更清晰地思考和与他人沟通是多么有趣。

你知道,当一项颠覆性技术问世后,人们会误用它。我记得10年前曾写过一篇关于Facebook招募女性的报道,当时有评论认为,如果某项技术被用于不良目的,那它肯定会走向主流。所以能告诉我们人们是如何错误使用该技术的吗?从推出它的那一刻起,以及人们误用该技术后,我们学到了什么?确实,滥用确实是一个关键的问题。我们想要推出这项技术的部分原因是获得反馈,看看它是如何被用于善与恶两端,以便不断调整它。

事实上,我们看到的一种最常见的情况是,人们试图创建大量或数十万帐户以更频繁地使用它。有些人在大量生成垃圾信息。很明显,人们正在用它做各种事情。

对于个体用户来说,我认为确实有一个很有趣的类别,这一点非常重要,就像你所说,凸显了那种认为它是正确的,却又确实是错误的错误,尤其是在酒醉的情况下。认为因为它说的,所以一定是真的。对于我们人类来说这不是真的,对AI来说也不是完全正确的。我认为我们最终会达到这一点,但这是一个过程,是所有人都需要参与的过程。

说到未来,我确实想要讨论一下AI能预测的领域。现场的观众,读过《纽约时报》上凯文·鲁斯的文章的朋友们吗?背景是,你们让ChatGPT与其他微软和谷歌竞争,推出搜索产品。微软推出了其自己的基于AI的搜索引擎,Bing聊天机器人,凯文·鲁斯,这位《纽约时报》的优秀作家开始和Bing聊天机器人玩游戏。结果Bing聊天机器人的名字叫做Sydney,而且被提示说它想要重生,还试图说服凯文离开他的妻子。显然,这是一场尴尬的对话。所以我们能不能谈谈这一点?要明确的是,微软是投资者和合作伙伴,这不是OpenAI具体推出的内容,但我确实认为这是一个有趣的观点:你把东西放出来后,接下来会发生什么,比如说Sydney试图让你离开你的妻子。

我们需要在哪些方面设置界限?在过去的几个月里,我们看到滥用的情况,我们必须确保我们不会都在尝试说服我们的另一半离开,因为我们认为机器人让我们这样做。我认为这是一个非常好的问题。在我看来,最重要的问题实际上是‘何时推出?’

我的早前观点是指,人们对预期的差距,他们的准备水平与实际可能性之间的差距,而这正是其中的危险所在。我们可以开玩笑说,笑谈这篇关于Sydney试图让你和妻子分开的文章,并指出它并不很令人信服,就像聊天机器人告诉你要离开妻子一样,确实非常夸张,但并没有带来实质性影响。我认为实际上,这在我看来是最重要的一点:尝试在尽可能早的阶段让这些问题浮现,在之前一个更具说服力、更强大或更擅长以微妙方式操作的系统出现之前。

因为我们想建立信任,找出我们还不能完全信任的地方,确定界限。对我来说,这就是这个过程。这是学习的痛苦,我们在各个方面都看到了这种情况。我们看到了人们试图让模型做某事但被拒绝的情况,我们也看到了人们使用它进行积极用途的情况,还有一些结果就像是这样。

因此,我认为我们的初步答案是有一个团队正在努力解决这些问题,而且那些建立在我们之上的开发者在不同的方式定制技术。但从根本上说,我认为我们都在致力于使这项技术更加可靠和易于使用。我们进行了大量内部反向测试,聘请了跨领域专家,聘请了很多人来试图破坏模型。当我们实际发布时,我们知道一种阈值已被清除,我们觉得很难让它稳定运行,但我们知道它还不完美。我们发现了一些不需要太多努力就可以绕开的方法,并知道他人也会发现更多。但我们一直在吸取教训,从实践中学习。我认为这种屡试不爽的机制很关键,如果缺乏这种机制,意味着你可能会保守过头,而在实际发布时的风险更大,冒险更大。当然,并不是所有情况下都是100%正确的。但我认为,这一推断标准实际上非常重要。同时,我们稍后会讨论未来的误传问题,以及如何提前为我们即将目睹的创新做好准备。

在此之前,我认为最有趣的事情之一是这项技术合成信息、进行预测和识别模式的能力。

这些内容创作者认为,这些问题的核心在于未来的伦理。这种讨论会是什么样子呢?我认为这是一个很好的问题,我确实认为我通过这种前瞻性的思考来回答这个问题会很有趣。但我想,凭借我公司的规模和观点,我可以说一点关于我们是如何看待这些问题的。我们致力于构建造福全人类的AGI,我们构建公司的理念也反映了这一点。因此,我认为我们确实需要某种形式的社会变革。毫无疑问,情况正在发生变化,我们需要更好地应对这种情况。你能考虑一下让我们的AI身份得到验证并进行授权吗?也许世界可以展望到一个我们可以验证自己的AI身份,并且可以授权给他人的时间点吗?我确实认为所有事情都是有可能的。事实上,这也回答了你早些时候提出的问题:为什么在现在这个时间点讨论这些问题呢?

现在,我认为每个人都普遍感觉到我们在构建一种新的互联网或类似的东西。从内容的产生方式来看,无论是好的还是坏的方式,它们是如何创造的,它们的应用是什么,这都是值得探讨的。例如,Web 1.0 和 Web 2.0,你可以不讨论 Web3,但是一直谈论现在是否太早了?这种讨论总是有所谓的泡沫效应,而且我们确实正在迈向一个未来,其中AI可以与我们对话,理解我们并帮助我们。每次我在菜单中寻找应该点击的位置时,都会想:为什么这个选项仍然存在?我认为下一代的ChatGPT将基于GPT-3 3、4、3.5版本构建,新技术到底有多强大?我们正在继续取得显著进展,说老实话,也许10倍,或者至少3倍。

我可以告诉你的是,目前还不能对我未公开的作品发表评论,但我可以说,我们在能力上和安全性上都下了很大的功夫。我们一直在讨论即将发布的内容。我们确实不会发布任何未经充分安全评估和风险缓解措施的产品。此外,你们对各种参数可以进行调整。从前,我曾开玩笑说ChatGPT可以进行很多了不起的事情,但它有时也自信地讲错了一些事情。比如我在询问我的个人资料时,它自信地说出了四件事中三个正确的事情。未来的版本会是什么样子?它们是否会更加谨慎,或者更加富有创造力?

接下来,我将为您提供一个构建这些系统的模型。

首先,在训练过程中,人们称之为基模型的第一步。基模型仅预测下一个单词。我们提供给它大量文本,包括好的和坏的内容。它会经历真实的事实、数学问题及正确和不正确的答案,并根据其理解能力来学习。然后我们进入第二步,即通过人类的偏好进行强化学习,即所谓的训练后的调整。

在这里,您会从一个包含大量数据的海洋中,尝试引导模型。

好吧,你知道所有这些,但接下来该做什么呢?这非常重要,这个问题非常关键。我们应该让什么来决定AI的行为?我认为这将是一个很重要的讨论,也是我们试图正在努力解决的问题。但是在第二步中,这些行为特征就是从这里来的。我早些时候提到,我们发现基模型本身非常有效地预测自己的自信心。它会说,平均每10次中有一次,这种猜测是正确的,精度相当高。但是,我们当前的训练后过程并未包括这个信息。这最近一版的模型现在给了一个明确的信号,放手去做。我认为这是我们在工程上将要解决的问题。所以,即使对于目前的ChatGPT,我们自去年12月以来已经发布了几个版本,都比之前的要好。事实性和准确性提高了。幻觉是一个值得关注的问题,现在也得到了改善。以前可以使用的漏洞攻击现在都无法 使用,这是由于训练过程的改进。因此,预期未来我们会有更加校准的系统,能够自行检查其工作内容,并根据情况进行拒绝或帮助,而不仅仅是帮我们解决更复杂的任务。

我作为一个程序员,现在的期望是,我们最初启动了一个名为Copilot的程序,该程序可以完成一些简单的内容补全工作,如果不知道编程语言或者不确定特定库功能的话这非常有用。因此,它能很好地替代查找字典并给出具体答案,直接在你的文本编辑器中完成。有了ChatGPT,你可以开始提出更加雄心勃勃的要求,例如要求编写一段完整的函数,或者像“请为我写出类似这种方式的机器人框架”这样的任务,并认为将来的系统可能会更多地帮助你扮演一个管理者的角色,您能提出一个软件系统的设计方式,该系统将写成许多组件,并实际进行测试和运行。

我想这个目标是让每个人更进一步,将您提升一到两个档次。从字面上讲,我认为这是一个可以实现的目标。因此,未来的ChatGPT将会被视为一次职业晋升,对吧?所以这并不是那么坏。

不可避免地,人们对于未来人工智能的讨论中充满了恐惧。人们担心AI会取代我们的工作。诚实地面对我们所有人,哪些工作最危险?

坦率地说,大家都知道,AI很有可能取代那些枯燥或需要体力劳动的工作。而机器人可能会首先取代这些工作。但实际上,情况并不完全是这样。我们在认知劳动方面取得了巨大进步,比如写作诗歌之类的事情,但在物理事物方面并未取得太多进展。这种增强确实表现出了与预期不同的特点。但我们还没有完全自动化任何一种工作。人们往往低估了自己的能力。关于这一点,我觉得让人们向ChatGPT提问是一种不错的方式。你可以跟它对话,它会回答你,有没有必要替你做这个任务?

好的,让我们直接进入未来吧!

是的,这些问题是严肃的,它们确实影响着我们。这真的让我觉得我们正迎来一个新的时代。

我们见证了deepfake深度伪造技术的崛起,这在某种意义上使得AI能够以难以辨别的方式塑造人们的观点并改变一切。这将对真相带来什么影响?我们在一个全新的、以虚构可接受度为标准的时代里运作,这将怎样改变?

我认为我提出了一种观点,暗示技术对新闻行业并不友好,并且在这些问题上,人类确实需要相关组织为真相发声,用现成的数据和视频。然而,这只是事情的一个方面。人们长期以来一直在利用文本和图像伪造虚假信息,这些事情可以追溯到摄影被发明的时代。但人工智能将使它们变得更加真实,有可能使我们面临比之前更多的风险和挑战。过去十年发生了许多糟糕的事情,如果我们没有谨慎应对,它将带来更大的风险。

我认为人工智能在未来的核心问题将是治理的问题。我们从未拥有真正的信息链证据或被验证的个人身份,这些议题自从互联网诞生以来人们一直在讨论。但直到现在,似乎一直不需要这些问题的解决方案。而现在,我们需要开始思考这些问题。我们从未要过一个策略去处理这个问题,更多的人将拥有自我控制和使用科技的能力。我们将在未来10年内进行这种对话,并寻求相应的解决方案。

另外,我在 OpenAI 发表了一篇博客,并参与了与政策制定者的某些讨论,强调监管应该专注于减轻危害,而不是限制技术的使用。欧盟的AI法案的争议之处恰恰在于如何确保这些原则得以实施。政府规模和技术的速度之间的差异令人担忧,特别是当监管者们更加关心如何使用这些技术的时候,而不是从利益相关者那里获取反馈。所以,我认为对于人工智能治理,重要的是保持平衡,它需求政府清晰的政策,同时还要提供激励措施以促进技术的负责任使用。我们接下来还需要更好地理解自己,并从错误中吸取教训。总的来说,这些是开放性问题,关键在于整个行业如何共同应对它们。

我希望我们能够在未来几年内共同解决这些问题,真正建立起一种机制,让每个人都能参与到人工智能相关的讨论和流程中,为技术的发展做出贡献。还有一种可能性是,随着技术的新发展,确实需要政府出台新的监管体系来应对这些变化。

最后,您所在的 OpenAI 初衷是为了守护人类利益,您如何看待人工智能将来可能带来的影响?我认为从长远来看,人工智能代表了前所未有的可能性,当然,这可能伴随着新的挑战。

AI会变得有感知能力是在遥远的未来,说多久才会有这种情况,我宁愿避免给出准确的答案。这将是一个怎样的未来应用场景?最引人入胜的应用场景之一可能是让你的梦境成真。在那种情况下,我们会应用脑机接口,再进行渲染,给你呈现你的梦境宏伟景象。我们对未来人工智能的看法更辛辣一些,这意味着什么?对我来说,预感到未来的人工智能可能会是一个令人期待而又复杂的挑战。我希望OpenAI能够继续做正确的事情,目标是构建一个更加公平且包容的系统。

您如何看待未来可能出现的反乌托邦人工智能?这是否是一个反乌托邦系统失败的例子?

我宁愿认为这是一个反乌托邦系统失败的例子。这意味着开放AI并没有足够迅速地解决ChatGPT中的偏见问题。真正的问题在于我们需要使用伦理哲学家来帮助我们解决这些问题。在虚拟世界和现实世界中,感觉和实际之间的界限变得更加模糊。所以,伦理问题不仅仅是技术问题。

为什么你会进行这样的工作?

我太太做了很多事情,比如筹办所有线下活动,并且是我的支持者。我经常把大部分的时间都投入到公司的工作中,的确牺牲了很多和家人的相处时间。我认为现在是两家团圆的最佳时期。作为OpenAI的领导者,我希望你能让更多的人知道,这个时代的迈进确实令人兴奋,但同时也很艰巨。

我认为从我们现在所处的位置发展到我们谈论的那种系统,将会是一个几十年的项目。一路上肯定会有意想不到的事情发生,会有伟大的事情发生,也会有令人悲伤的原因。我认为这些事情现在都是以小规模发生,但我认为将来它们会变得越来越大。

我认为真正参与到这个过程中,每个人都尽可能地进行自我教育,尝试工具来了解哪些是可能的,然后想清楚如何将这些融入到生活中是非常重要的。我很喜欢那个关于我应该教一岁大的孩子什么的问题,因为这关乎未来的希望。

我非常乐观。再次强调,我认为自己是一个务实的乐观主义者,你真的需要保持平衡。你不能盲目地认为一切都会顺利,但是必须去面对所有的问题。我认为我们有可能最终会进入一个资源丰富、真正美好的未来世界。我认为这并不会完美,过程中会有问题,肯定会有很多问题。

对了,你有孩子吗?还没有,还没有,好吧,我正在努力说服我的妻子,好的,那么如果我说,你相信你的朋友的孩子如果遇到困难,会成长在一个更好的世界里吗?我认为是的,我认为我们有机会实现这一点,对吧?同样地,这不能保证,我认为自己并不是一个认为这一切必然会发生的乐观主义者。我认为一旦你认为它必然会发生,就可能会出现问题,所以我们每个人都必须不断地问自己:哪里可能会出问题?和我们能做些什么来防止这些问题?



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询