AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


漫画大模型简史
发布日期:2025-01-23 05:07:58 浏览次数: 1532 来源:AI大模型世界
推荐语

这是一部精彩的漫画大模型发展历程,带你领略科技的魅力。

核心内容:
1. 早期人工神经元模型与人工智能概念的萌芽
2. 重要的发展节点与相关程序的诞生
3. 研究中的困境与突破带来的发展起伏

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

时间的从1943年说起,沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)提出了人工神经元模型,也就是阙值逻辑单元(TLU),这是神经网络研究的基础。

就是下面这两位大神,意外的发现尽管相差25岁,竟然同一年去世...

而 Pitts 竟然是一位非常非常 i 的人,i 到哪怕给钱都不愿意让别人知道名字的地步...


而 TLU 长下面这样:

1950年:图灵发表了《计算机器与智能》,提出了著名的“图灵测试”,即如果一台机器能在对话中让人类无法判断其是否为机器,则这台机器具有智能。标志着人工智能概念的萌芽。

1956年:在美国达特茅斯学院,由约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)等人组织的会议上,首次提出了“人工智能(Artificial Intelligence)”的概念。

这次会议被认为是人工智能作为一门独立学科的正式诞生。

1959年:亚瑟·塞缪尔(Arthur Samuel)开发了世界上第一个自学习程序——西洋跳棋程序,引入了"机器学习"这个术语。

1966年:约瑟夫·魏岑鲍姆(Joseph Weizenbaum)开发了ELIZA,这是一个早期的自然语言处理程序,能够模拟心理治疗师与人对话,揭示了机器与人类自然语言交流的可能性。

1969年:马文·明斯基(Marvin Minsky)和西摩·帕珀特(Seymour Papert)出版《感知器》一书,指出了单层神经网络的局限性,单层神经网络也存在一些局限性。例如,单层神经网络也存在一些局限性。例如,感知器模型只能解决线性可分问题,对于非线性可分数据则无法进行有效分类, 导致神经网络研究一度停滞

第一次寒冬降临


1982年:约翰·霍普菲尔德(John Hopfield)提出霍普菲尔德网络,重新激发了对神经网络的研究兴趣。

1986年:大卫·鲁梅尔哈特(David Rumelhart)等人重新引入了反向传播算法,推动了多层神经网络的研究。

1989年:杨立昆(Yann LeCun)应用卷积神经网络于手写字符识别,这是深度学习在实际应用中的早期成功案例。

2006年:杰弗里·辛顿(Geoffrey Hinton)等人提出了深度信念网络(Deep Belief Networks),为深度学习奠定了基础。

2012年:杰弗里·辛顿的指导下,亚历克斯·克里泽夫斯基(Alex Krizhevsky)开发出AlexNet模型,在ImageNet图像识别竞赛中取得了显著的成绩,推动了深度卷积神经网络的发展。

2014年:伊恩·古德费罗(Ian Goodfellow)提出了生成式对抗网络(GAN),为生成模型开辟了新方向。

2017年:论文《Attention Is All You Need》提出了Transformer架构,革新了自然语言处理模型的设计,为后续的预训练语言模型奠定了基础。2018年:谷歌发布了BERT(Bidirectional Encoder Representations from Transformers),这是NLP领域的一个重要突破,为后续的语言模型发展奠定了基础。

2019年:OpenAI发布了GPT-2,展示了大规模预训练模型在文本生成上的强大能力。


2020年:OpenAI发布了GPT-3,拥有1750亿参数,进一步提升了语言生成和理解的能力。

2022年:OpenAI基于GPT-3.5架构,训练了对话模型ChatGPT,能够进行连贯的对话和回答问题,在全球范围内引起广泛关注。

2023年:OpenAI发布了GPT-4,具备多模态处理能力和更强的理解与生成性能,进一步推进了通用人工智能的发展。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询