微信扫码
添加专属顾问
我要投稿
前几天受到一位从事青少年素养教育创业的朋友的委托,给他的学员和家长进行一个关于AI的科普,创作了这个内容。虽然没少讲AI,但是面对青少年和可能没有基础的家长来讲述确实有一定的困难。所以假设听众都是零基础。为此下了不少功夫,经过了好几个版本的迭代。从现场效果来看是不错的,孩子和家长应该都理解了想要表达的内容。后来也有一些朋友觉得这些演示内容能够解决它们的一些问题,所以决定再花一些功夫把内容添加上注释,可以给需要的科普的孩子和家长使用。
容易理解为首要目标,不追求完全严谨。例如没有说明诸如AI、机器学习和深度学习和各种训练方法,以免造成理解上的困难。
不保证内容完全正确,例如一些事件的时间点等。
部分资料来源网络,从油管等地方参考了一些内容,为了方便国内访问,已经将内容都搬运到B站,或者附上了其他up主搬运的链接。
1996年到2003年期间在清华大学精密仪器与机械学系学习,在研究生阶段导师的主要研究课题是模式识别,例如指纹、虹膜和掌纹等生物特征的识别。研究生的课题也与此相关,因此开始接触机器学习算法,神经网络等AI技术。之后一直从事IT行业。2019年开始自己创业,主要从事数字化创新应用的开发,在2022年ChatGPT引发新的人工智能浪潮之后,投入了大语言模型的应用研究开发中。目前公司产品和方案有知识库和Agent等。
这是电影《黑客帝国》里墨菲斯第一次和尼奥见面时说的话,尼奥心中充满了各种疑惑,他感觉到事情有一些不对劲,所以一直在寻求答案。相信能够看到这篇文章的你也是一样,对AI,特别是类似ChatGPT的AI是如何工作的,将来会变得怎么样,会对自己产生哪些影响充满了好奇。但是不能直接告诉你ChatGPT的制造过程,所以如果花一些时间先了解一些基础,那么你理解它和其他AI就会容易得多。
它在论文中写到 "在大约五十年的时间里(从论文发表的1950年算起),人们将能够编程计算机(此计算机具有大约10^9字节的存储容量),使它们在模仿游戏中表现得足够好,以至于一个平均水平的审讯人员在五分钟的提问后,正确分辨出机器与人类的准确率不会超过70%。"
你可能会想到ChatGPT或者很多其他文学和电影作品里面的经典形象。实际上在这方面,人们已经进行了非常多的幻想。
例如流浪地球中的MOSS。它能够观察,预测,指挥舰队。
钢铁侠的助手贾维斯。
星球大战中的3PO和R2D2,负责清理垃圾的瓦力,没有手指头但是无所不能的哆啦A梦,片名就叫《AI》中的不幸患病离世的小男孩的替身David,机械姬中的Eva和著名的终结者。
这些形象的共同特点是,虽然这些"机器人"或者"AI助手"能力各不相同,但是他们普遍与人类存在很多共同的特性。具有超强的学习和思考能力,能够胜任特定的任务。
即使是当今现实中的AI也已经相当了不起,除了ChatGPT以外,其它的AI能够"看",判别出不同的物体;会"听"和"说",进行流畅对话;可以绘画(Midjourney、Stable Diffusion);可以创作视频(Sora)和音乐(Suno);能够驾驶汽车和在游戏中胜过任何人类对手。
从图灵一开始提出机器会思考至今大约七十多年的时间,相比较人类几千年的历史而言,这只是短暂的一瞬。期间人工智能的发展几起几落,不时通过一些震惊人类的能力从而吸引了公众的注意力。例如1997年深蓝战胜卡斯帕罗夫,2016年AlphaGo战胜李世石,以及2022年的ChatGPT。
可以看到AI的能力是不断螺旋式上升,而且能力提升是越来越快。
人类大脑主要的组成部分是神经元细胞,根据研究,人类大脑中大约有850亿个神经元细胞。这些神经元细胞之间连接在一起,相互传递信息,这些信息传递的过程就是人脑思考和学习的过程,也是人类智能的来源。
如果把单个神经元细胞拿出来看,有点像水母,它有很多"触角"从外部接收刺激,如果这些刺激超过了一定的阈值,那么它就会将这些刺激传递到其它与之连接的神经元。
这个视频可以让你比较直观的看到单一的神经元结构以及它是怎么和其他神经元连接在一起的。
需要留意一点,神经元之间的连接可能会有"粗细",就像电路导线一样,如果连接比较粗,那么细微外部输入的刺激带来的刺激就会大一点,如果连接比较细,那么同样的刺激强度需要更大的外部输入。
阿凡达和他的坐骑沟通的方式就有点像神经元细胞之间的连接。
模拟一个神经元,通过编程模拟一个神经元,它有很多"触角",能够从外部接收刺激,如果刺激超过一定强度,那么它就会把刺激向其他神经元传递,否则它就什么都不做。想一想你的去拿水杯,如果水杯很烫,那么你的手就会从水杯上弹开。
复制很多个神经元,并且把它们连接在一起。
让这个模拟出来的"大脑"工作
我们不知道大脑中神经元之间的连接结构,大脑中神经元连接的结构可能会非常复杂,可能是一个复杂的网状结构。计算机中无法模拟这么复杂的结构,人们只能根据猜测去设计一个结构,不同的模型之间结构是不一样的。有些结构很简单,有些结构很复杂。
其实在计算机中模拟人脑还有一个难点,我们知道,人脑是长出来的,婴儿出生的时候就自带了一定的出厂设置,它能够有感觉,能够哭,会吃奶,然后通过后天学习,不断丰富神经元之间的连接,从而变得越来越聪明。但是我们在计算机中建造的AI模型,一旦连接结构确定之后,就很难进行调整。另外,对于开始神经元之间的连接的粗细,也只能随机的分配。所以刚开始制造出来的这个模型是"一团浆糊",它做不了任何事情。要想让这个AI模型起作用,就要对它进行训练。
先设计一个AI模型,把一些神经元连接到一起,随机分配神经元之间连接的粗细,重复20次,那就得到了20个不同的模型。
让这些模型去控制20辆小车的运动,让它们开始尝试去穿越隧道
一开始肯定不会那么幸运,很多小车可能没走几步就撞墙了。但是总有那么一些小车是能够跑得比较远的,我们挑出其中跑得最远的两辆
利用这两辆车去"生孩子",让它们生出20辆新的小车。根据优生优育的原理,它们的后代有可能会比前一代表现得更好。所谓的"生孩子"的过程,就是利用最强的两辆小车神经元之间的连接结构,通过模仿遗传学的原理,各自取一部分的连接,随机的调整(变异)一些连接来生成新的AI模型。
让这20辆小车再去跑,再挑出最强的两辆,让它们再去生成新的20辆
重复到第46代的时候,终于出现了能够跑出隧道而不会碰壁的小车。
最终能够跑出隧道的小车的AI模型,它的神经元之间的连接具有了"正确"的粗细,这个大脑在当前的任务中,能够正常工作。
这个AI模型有很多已经连接好的神经元,他们之间的连接的粗细(参数)已经训练过。假设一个手写数字是比较明亮的部分,当一个手写体数字被输入到模型当中时,某些神经元受到的刺激超过了阈值(比较亮的点),那么它就会把这个刺激往下传导,到最后有10个神经元,代表是0~9这10个数字,如果最终这些神经元亮了(被激活),那么就表示输入的手写体是对应的数字。
测试它,看看它是不是足够聪明,能够解答一些训练数据里没有出现过的内容。
ChatGPT有点类似人类早期刚刚学会使用工具的时代,它通过使用工具来创造,最终来改进自己。虽然AI模型是对人脑的"拙劣"的模仿,但是它可以永不停歇,不受情绪控制,可以比任何一个单个人知道的都要多。一旦AI模型找到了自我进化的方法,那么它的进步速度会超过所有的人类。
这些限制是你在使用ChatGPT的过程中应该注意的。
AI对人类的影响应该是长远的,可以参考互联网深刻的改变了我们的生活。所以你应该了解它、使用它。如果更有追求一些,你应该思考如何创造一个更好的AI。
飞书上有人整理了当前很多AI内容,是一个很好的参考工具。例如B站和油管也有很多学习材料。另外,如果你访问ChatGPT有困难,国内也有很多非常不错的AI,例如智谱清言和Kimi助手。
感谢你的阅读,我们的公众号有一些更深入的文章,也可以参考。欢迎交流!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-01
2024-07-25
2025-01-01
2025-02-04
2024-08-13
2024-04-25
2024-06-13
2024-08-21
2024-09-23
2024-04-26
2025-04-28
2025-04-28
2025-04-28
2025-04-28
2025-04-28
2025-04-28
2025-04-28
2025-04-28