AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


AI就是模仿游戏——给青少年的AI入门课
发布日期:2024-05-06 16:14:47 浏览次数: 1636


背景和目标

前几天受到一位从事青少年素养教育创业的朋友的委托,给他的学员和家长进行一个关于AI的科普,创作了这个内容。虽然没少讲AI,但是面对青少年和可能没有基础的家长来讲述确实有一定的困难。所以假设听众都是零基础。为此下了不少功夫,经过了好几个版本的迭代。从现场效果来看是不错的,孩子和家长应该都理解了想要表达的内容。后来也有一些朋友觉得这些演示内容能够解决它们的一些问题,所以决定再花一些功夫把内容添加上注释,可以给需要的科普的孩子和家长使用。

声明

  • 容易理解为首要目标,不追求完全严谨。例如没有说明诸如AI、机器学习和深度学习和各种训练方法,以免造成理解上的困难。

  • 不保证内容完全正确,例如一些事件的时间点等。

  • 部分资料来源网络,从油管等地方参考了一些内容,为了方便国内访问,已经将内容都搬运到B站,或者附上了其他up主搬运的链接。


关于我

1996年到2003年期间在清华大学精密仪器与机械学系学习,在研究生阶段导师的主要研究课题是模式识别,例如指纹、虹膜和掌纹等生物特征的识别。研究生的课题也与此相关,因此开始接触机器学习算法,神经网络等AI技术。之后一直从事IT行业。2019年开始自己创业,主要从事数字化创新应用的开发,在2022年ChatGPT引发新的人工智能浪潮之后,投入了大语言模型的应用研究开发中。目前公司产品和方案有知识库和Agent等。

我知道你在为疑惑寻求答案

这是电影《黑客帝国》里墨菲斯第一次和尼奥见面时说的话,尼奥心中充满了各种疑惑,他感觉到事情有一些不对劲,所以一直在寻求答案。相信能够看到这篇文章的你也是一样,对AI,特别是类似ChatGPT的AI是如何工作的,将来会变得怎么样,会对自己产生哪些影响充满了好奇。但是不能直接告诉你ChatGPT的制造过程,所以如果花一些时间先了解一些基础,那么你理解它和其他AI就会容易得多。

AI就是模仿游戏

如果你惊叹于今天的AI的能力,但是又不太清楚人们是如何把它是如何制造出来的,那么可以回到AI的起点。
1950年,人工智能之父——阿兰图灵第一次提出计算机是有可能学会像人一样思考的。它发表了《计算机器与智能 Computer Machinery and Intelligence》的论文,提出了这个观点,同时提出了著名的“图灵测试”来判断机器是否具有智能。
这个观点非常重要,因为计算机最初的目的是用于"计算",如果看过电影《模仿游戏》,就知道图灵的一大功绩就是破译了德国人的密码。但是很少有人能够想到一台机器可以像人一样思考。

它在论文中写到 "在大约五十年的时间里(从论文发表的1950年算起),人们将能够编程计算机(此计算机具有大约10^9字节的存储容量),使它们在模仿游戏中表现得足够好,以至于一个平均水平的审讯人员在五分钟的提问后,正确分辨出机器与人类的准确率不会超过70%。"

先随意发挥一下对AI这个词的想象

你可能会想到ChatGPT或者很多其他文学和电影作品里面的经典形象。实际上在这方面,人们已经进行了非常多的幻想。

科幻作品中的AI

例如流浪地球中的MOSS。它能够观察,预测,指挥舰队。

钢铁侠的助手贾维斯。

星球大战中的3PO和R2D2,负责清理垃圾的瓦力,没有手指头但是无所不能的哆啦A梦,片名就叫《AI》中的不幸患病离世的小男孩的替身David,机械姬中的Eva和著名的终结者。

这些形象的共同特点是,虽然这些"机器人"或者"AI助手"能力各不相同,但是他们普遍与人类存在很多共同的特性。具有超强的学习和思考能力,能够胜任特定的任务。

当前的AI

即使是当今现实中的AI也已经相当了不起,除了ChatGPT以外,其它的AI能够"看",判别出不同的物体;会"听"和"说",进行流畅对话;可以绘画(Midjourney、Stable Diffusion);可以创作视频(Sora)和音乐(Suno);能够驾驶汽车和在游戏中胜过任何人类对手。

这是七十多年的研究和进步结果

从图灵一开始提出机器会思考至今大约七十多年的时间,相比较人类几千年的历史而言,这只是短暂的一瞬。期间人工智能的发展几起几落,不时通过一些震惊人类的能力从而吸引了公众的注意力。例如1997年深蓝战胜卡斯帕罗夫,2016年AlphaGo战胜李世石,以及2022年的ChatGPT。

可以看到AI的能力是不断螺旋式上升,而且能力提升是越来越快。

为什么ChatGPT吸引了公众注意

在众多的AI中,最受关注也最重要的无疑是ChatGPT。与其他AI相比,它有两个非常明显的特点:
  1. 图灵测试,其他AI几乎没有机会通过图灵测试,无论是负责看,还是画画的AI,都无法与人类进行交流沟通,也就没有能力通过图灵测试,因此它们的"智能"距离人类的期望有很大差距,但是ChatGPT似乎已经达到了阿兰图灵最初的设想
  2. 综合能力,其它AI的能力可能非常强大,例如从成千上万的人脸中准确识别出某个人,但是它能力非常单一,除了这个特定任务以外,在其他方面几乎无能为力。而ChatGPT能够理解人类语言,生成对话,使用工具(例如其他绘画的AI),它的综合能力是其他模型望尘莫及的。
ChatGPT第一次让公众非常直观的体会到了类似科幻作品中的AI。因此它受到高度关注是非常正常的。

类似ChatGPT的AI是目前最接近人脑的模型

AI的目标是让计算机模仿人类学习和思考,而人类学习和思考的能力来源于大脑。因此人类一直在追求的就是制造出具有人类大脑能力的计算机程序。类似ChatGPT的AI,它们被称为"大型语言模型", 是目前最接近这个目标的。虽然它距离科幻中的AI还有巨大的差距。
如果需要模拟出一个大脑,那么就得先研究一下大脑的结构。

人类大脑的结构

人类大脑主要的组成部分是神经元细胞,根据研究,人类大脑中大约有850亿个神经元细胞。这些神经元细胞之间连接在一起,相互传递信息,这些信息传递的过程就是人脑思考和学习的过程,也是人类智能的来源。

如果把单个神经元细胞拿出来看,有点像水母,它有很多"触角"从外部接收刺激,如果这些刺激超过了一定的阈值,那么它就会将这些刺激传递到其它与之连接的神经元。

一个关于神经元之间连接的视频

这个视频可以让你比较直观的看到单一的神经元结构以及它是怎么和其他神经元连接在一起的。

需要留意一点,神经元之间的连接可能会有"粗细",就像电路导线一样,如果连接比较粗,那么细微外部输入的刺激带来的刺激就会大一点,如果连接比较细,那么同样的刺激强度需要更大的外部输入。

阿凡达是怎么和它的坐骑沟通的

阿凡达和他的坐骑沟通的方式就有点像神经元细胞之间的连接。

让我们开始在计算机中模拟大脑

既然已经(大概)知道了大脑的结构,那么就可以在计算机中来模拟一个"大脑",我们称之为"AI模型"。
分几个步骤:
  1. 模拟一个神经元,通过编程模拟一个神经元,它有很多"触角",能够从外部接收刺激,如果刺激超过一定强度,那么它就会把刺激向其他神经元传递,否则它就什么都不做。想一想你的去拿水杯,如果水杯很烫,那么你的手就会从水杯上弹开。

  2. 复制很多个神经元,并且把它们连接在一起。

  3. 让这个模拟出来的"大脑"工作

是不是这样就已经成功制作了一个AI模型呢?事情没有那么简单。这个计算机对人脑的模拟是非常简陋的,进行了非常多的简化。有两个问题:
  1. 我们不知道大脑中神经元之间的连接结构,大脑中神经元连接的结构可能会非常复杂,可能是一个复杂的网状结构。计算机中无法模拟这么复杂的结构,人们只能根据猜测去设计一个结构,不同的模型之间结构是不一样的。有些结构很简单,有些结构很复杂。

  2. 我们不知道大脑中神经元之间连接的粗细,前面提到过,神经元之间的连接的粗细决定了对刺激的传导,而刺激传导是智能的关键。所以寻找不同神经元之间连接的粗细程度,成为了模拟的大脑能否正常工作的另外一个难点。

其实在计算机中模拟人脑还有一个难点,我们知道,人脑是长出来的,婴儿出生的时候就自带了一定的出厂设置,它能够有感觉,能够哭,会吃奶,然后通过后天学习,不断丰富神经元之间的连接,从而变得越来越聪明。但是我们在计算机中建造的AI模型,一旦连接结构确定之后,就很难进行调整。另外,对于开始神经元之间的连接的粗细,也只能随机的分配。所以刚开始制造出来的这个模型是"一团浆糊",它做不了任何事情。要想让这个AI模型起作用,就要对它进行训练。

AI的训练过程就是调整神经元之间的连接

如果AI模型的连接结构是事先确定了而无法进行后续调整,那么唯一可以做的就是不断的调整神经元之间连接的粗细来使它能够达到设计的目的。这种不断调整神经元之间连接的过程被称为"训练",连接之间的粗细被称为"参数"。有很多种调整参数的方法。
这个视频展示了其中一种。它用的方法不是当前最普遍的,但是这个视频比较直观的展示连接调整的过程因此采用它。
我们的训练目标是让小车具有智能,能够穿越一条隧道,它需要控制好自己的速度和方向,不要触碰到隧道的墙壁。
  1. 先设计一个AI模型,把一些神经元连接到一起,随机分配神经元之间连接的粗细,重复20次,那就得到了20个不同的模型。

  2. 让这些模型去控制20辆小车的运动,让它们开始尝试去穿越隧道

  3. 一开始肯定不会那么幸运,很多小车可能没走几步就撞墙了。但是总有那么一些小车是能够跑得比较远的,我们挑出其中跑得最远的两辆

  4. 利用这两辆车去"生孩子",让它们生出20辆新的小车。根据优生优育的原理,它们的后代有可能会比前一代表现得更好。所谓的"生孩子"的过程,就是利用最强的两辆小车神经元之间的连接结构,通过模仿遗传学的原理,各自取一部分的连接,随机的调整(变异)一些连接来生成新的AI模型。

  5. 让这20辆小车再去跑,再挑出最强的两辆,让它们再去生成新的20辆

  6. 重复到第46代的时候,终于出现了能够跑出隧道而不会碰壁的小车。

最终能够跑出隧道的小车的AI模型,它的神经元之间的连接具有了"正确"的粗细,这个大脑在当前的任务中,能够正常工作。

一个训练好的AI模型是如何工作的

这个视频比较直观展示了AI模型工作的过程。这个模型是一个比较简单的手写体识别的模型,它能够识别手写的0~9的数字。

这个AI模型有很多已经连接好的神经元,他们之间的连接的粗细(参数)已经训练过。假设一个手写数字是比较明亮的部分,当一个手写体数字被输入到模型当中时,某些神经元受到的刺激超过了阈值(比较亮的点),那么它就会把这个刺激往下传导,到最后有10个神经元,代表是0~9这10个数字,如果最终这些神经元亮了(被激活),那么就表示输入的手写体是对应的数字。

为什么不编程?而是要训练

可能你会觉得奇怪,训练看上去是一个很困难的过程,我们是不是可以编写一段代码,利用各种逻辑判断来识别手写数字或者是控制小车。为什么要用训练AI模型这种看上去效率不太高的方式?
我们以人脸识别为例来说明,人脸之间的不同主要有眼睛大小,眉毛粗细,鼻梁高低等等。如果我们需要通过编程方式来识别人脸,就需要实现知道人脸的这些特征,并且编程让计算机去找到这些特征,从而识别出特点的人。如果人脸的数量不太多,而且这些人长得差别比较大,那么这种方式是可行的。
但是如果我们需要实现成千上万的人脸识别,那么编程的方式就比较困难了。因为你很难发现一套规则,来区分那么多的人脸。但是如果采取训练一个AI模型的方式,那么模型就能自动的找出一套规律,来区分哪怕是非常细微的人脸之间的差别。
如果我们已经事先知道规则,硬编码的方式当然很有效率,但是如果我们不知道规则,而希望去发现它,那么训练就是比较有效的。

可以开始讲ChatGPT了

有了这些基础,现在可以理解ChatGPT了。前面我们看到,创造AI模型的方式是固定的:
  1. 在计算机中设计模拟一个有很多个神经元连接在一起的"大脑",随机的给这个大脑分配一些连接参数;
  2. 通过"训练"来不断调整这个大脑的连接到合适的程度,直到符合我们的设计的目的;训练的过程通常需要给模型大量的示例,如果它的输出不理想,就调整连接,直到它能够正确输出
  3. 训练完成后,通常还需要对它进行测试,以便确认它学会了"规律"而不是死记硬背。就如老师会在课堂上带你解题,但是你没有真正学会,只有通过做类似的题目,得出正确结果才知道。

ChatGPT的训练目标

我们一开始先设定ChatGPT的训练目标,就是根据输入的文本"预测下一个字",俗称接龙。这也是ChatGPT所有能力的来源。为什么能够正确的预测下一个字具有这么强大的能力呢?想象一下你看一本侦探小说,当你看了前面的章节之后,突然一个灵光闪现,凶手就是XXX!这其实就是思考的结果。所以能够根据输入来预测下一个字就是智能!这也是人们长期研究语言得到的一个结论。
ChatGPT的训练过程和其他AI没有不同,都是:
  1. 设计模仿一个神经元连接网络,人们设计了一个被称为Transformer (就是变形金刚那个Transformer)的连接结构,里面有很多很多的神经元,这些神经元之间的连接数量总数最高的达到了数千亿。注意这个是连接总数,而不是神经元总数,每个神经元可以有很多的连接。
  2. 准备大量的数据,人们收集了大量数据、互联网和其他文字数量
  3. 根据设定的训练目标来调整神经网络之间的连接参数,直到获得期望的效果
  4. 测试它,看看它是不是足够聪明,能够解答一些训练数据里没有出现过的内容。

ChatGPT的训练过程

如果你使用过ChatGPT你可能就会说,不对啊,ChatGPT不是这么工作的,我提问之后它给我的是答案而不是接龙。这是因为ChatGPT经过了三个阶段的训练。

第一阶段:大量阅读,学会接龙

给初始模型看各种各样的书籍,里面包含了各种各样的知识,从历史到科学,从文学到数学,应有尽有。ChatGPT在这个阶段就像是个记忆力很强的孩子,它阅读并记忆这些书。一般给它上文,它就能够立刻接出下文。

第二阶段:模仿人类对话交流

现在,ChatGPT已经学到了很多知识,但是它还需要学会怎么和人交流。在这个阶段,它会阅读大量的对话记录,这些记录是真实的人和人之间的对话。ChatGPT就像是一个在观察大人交谈的孩子,它要从中学习人们是如何提问、回答、开玩笑、讲故事的。通过这种方式,ChatGPT学会了如何更自然地与人交流,不仅仅是回答问题,还能进行有趣的对话。

第三阶段:学会说"好"话

即使ChatGPT已经完成了前两个阶段的学习,但是由于学习的材料里有很多内容来自互联网和书籍。这些内容有好有坏,它并不会分辨。有些时候可能会输出一些对人类有害的内容,例如如何毁灭人类。那么人们就要教会他们如何遵从人类的价值观。这个教授过程是,对每一个问题,让ChatGPT给出答案,如果回答得好,就"给糖"奖励,回答得不好就惩罚!那么它很快就学会什么才是"好的",树立了正确的价值观。

ChatGPT将来会怎么样

你已经大致知道了ChatGPT是如何制造出来的,而且大概率也体会过他的强大。那么他将来会变得怎么样?ChatGPT的制造者之一Andrej Karpathy给出了自己的预言:
Andrej Karpathy 的这段预言描述了大型语言模型(LLMs)未来可能具备的一系列先进能力。我们可以逐点理解这些预测:
  1. 阅读和生成文字
  2. 博学:由于模型可以访问和处理大量信息,它们可能会成为知识库,拥有比单个人类更广泛的知识。
  3. 浏览互联网
  4. 使用现有软件基础架构:模型将能够与现有的计算环境和编程语言(如Python)交互,甚至可能通过模拟鼠标和键盘操作来控制软件,这说明模型能够通过计算机来生成新的程序。
  5. 看懂并生成图片视频
  6. 听、说,生成音乐
  7. System 2 (慢思考系统) 进行长时间思考:这指的是模型能够进行深入的、逻辑性的思考,而不仅仅是快速的、直觉性的响应。
  8. 在具有奖励函数的领域自我提升:如果人们设定特定的奖励机制,那么模型就能够根据根据设定的方向去提升,例如在游戏中获得高分。这点十分重要,正如如果你考试考得好,那么可以获得奖励,你就会努力的去提升自己的成绩,不断的提高自己,模型也是一样。
  9. 为特定任务微调或定制
  10. 与其他大模型进行交流:模型将能够与其他类似的大型模型进行信息交换和协作,共同解决问题或执行任务。

会使用工具是ChatGPT这类模型最大的不同

ChatGPT有点类似人类早期刚刚学会使用工具的时代,它通过使用工具来创造,最终来改进自己。虽然AI模型是对人脑的"拙劣"的模仿,但是它可以永不停歇,不受情绪控制,可以比任何一个单个人知道的都要多。一旦AI模型找到了自我进化的方法,那么它的进步速度会超过所有的人类。

你应该知道的ChatGPT的限制

这些限制是你在使用ChatGPT的过程中应该注意的。

我会被AI取代吗?

AI对人类的影响应该是长远的,可以参考互联网深刻的改变了我们的生活。所以你应该了解它、使用它。如果更有追求一些,你应该思考如何创造一个更好的AI。

在哪儿可以学习AI

飞书上有人整理了当前很多AI内容,是一个很好的参考工具。例如B站和油管也有很多学习材料。另外,如果你访问ChatGPT有困难,国内也有很多非常不错的AI,例如智谱清言和Kimi助手。

谢谢

感谢你的阅读,我们的公众号有一些更深入的文章,也可以参考。欢迎交流!




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询