支持私有云部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


小白学AI | 术语篇 ( 二 )

发布日期:2025-03-17 06:49:31 浏览次数: 1552 来源:风火轮机器人
推荐语

深入浅出解析AI核心算法,小白也能轻松掌握!

核心内容:
1. 线性回归方程及其重要性
2. 深度学习和卷积神经网络的基础
3. 监督学习、无监督学习与强化学习的区别和应用

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

线性回归方程


AI当中为什么会大量提到线性回归方程这个东西到底是干嘛的?线性回归是一种基本的机器学习算法,它的数学表达式就是y=ax+b。它用于预测一个变量和一个或者多个自变量之间的关系,简单来说就是通过一条直线来模拟数据的趋势。                                    


 

这里的a怎么就变成W了。因为现实中一个参数确定的结准确度太低,所以改成多个参数,就是矩阵的形式。


比如判断美女的标准是:肤白声甜大长腿。单单肤白或者大长腿都有可能是美女,但是概率比三个条件都满足的概率低。


这里的W就是肤白声甜大长腿。用大白话讲,W就是世界观,只有符合这个世界观的就是美女。新来一个人,看她腿长不长,肤白不白,声音甜不甜来判断,都符合得分就高,是美女的概率就大。


我们训练模型,就是训练出那个大大的成千上万参数的W,这个巨大参数,就是机器的世界观,符合它的世界观的得分就高。比如:deepseek-1b,1b就表示有十亿个参数,除了肤白声甜大长腿外,还要有其他的9亿多个参数。


大模型大就大在这。




深度学习


深度之前要先知道线性回归。线性回归如上所述,神经网络就是多个线性回归串起来,有深度。这就是深度学习的深度的意思。


卷积神经网络


卷积神经之前,要先知道神经网络,神经网络之前要先知道线性回归。


线性回归如上所述,神经网络就是多个线性回归串起来,有深度,就是神经网络。下图的单层,中间多加几层就是网络了。


CNN卷积神经网络模型卷积神经网络就像一个会分析图片的小机器人,他们会用眼睛看图片,然后告诉你这个图片里面到底是什么东西,比如说哎,如果他看到一个红色的汽车。它会告诉你哎,这个图片里面有个红色的汽车,它能够自动的发现和学习汽车的特征,比如说轮廓,车灯和车牌等等,从而判断出来这是一个汽车,而不是其他的东西。卷积神经网络可以用来干嘛呢?分类图片识别,物体翻译,语言等各个任务,他们自己非常的聪明,能够自己学习和提取有用的信息。他们广泛的使用在计算机视觉和自然语言的处理领域当中。


 supervised learning 监督学习


监督学习,就是提供已知的输入和输出来训练模型。举个例子,你想让计算机来识别出来手写的汉字,那么你就找到所有的汉字的写法扔给他,然后让他自己去找规律,然后你自己再手写几个字,看它识别的对不对,这个就是监督学习。



 无监督学习 unsupervised learning


无监督学习,就是在没有标注数据的情况之下,根据这些特征或者相似的模式来进行计算或者识别分析。它和监督学习最大的区别就是我不需要事先给定你标准答案,比如说一个电商平台有大量的用户,那这个时候怎么去进行用户分类?你不需要去给用户设定什么年龄,性别,喜爱的什么爱好?你把这个东西扔给他,让他自己去聚类,找出这个相似度最高的群体,然后根据他们的行为去推荐东西。


 强化学习 reinforcement learning


强化学习,就是加入了试错和奖惩机制,你自己去试错,对了就奖励,错了就惩罚。比如无监督学习中那个电商的例子。如果你的算法是有用的,提升了销量,那么就给他正向的奖励,如果这个算法是有问题的,降低了销量,就给他负面的惩罚。那通过这么一个刺激源,不断去调整它的精准度,它有点类似人类大脑当中的多巴胺,你做的事情这个对了,挣钱了你就会开心,然后就会持续去做。



自然语言处理nlp



nlp指的是让计算机理解和处理人类使用的自然语言。举个例子,当你在搜索引擎里面输入一句话的时候,我想找一家附近的沙县小吃。那么,搜索引擎会通过nlp技术来理解你的意图,并且给出相关的结果,包括推荐的餐厅地址和营业时间等具体信息。一个最典型的例子就是siri你告诉他说明天早上八点提醒我开会。那么siri就会通过nlp技术来理解你在表达什么,并且设置提醒事项。也就是你可以理解为编程的反方向,编程是人用机器能理解的语言去沟通,而nlp是机器用人能理解的语言去沟通。那这样的话就会更加简单高效。


摩尔定律


芯片内集成的晶体管的数量,每18到24个月就会增加一倍,而芯片的价格却不会随之上涨。也就是说,摩尔定律它所描述的是同一个芯片的尺寸之下,集成电路当中可以容纳的晶体管的数量会不断地增加,但是造价却不会随之提高。


比如,CPU的处理速度和晶体管的数量是相关的,从70年代开始。处理器当中,晶体管的数量约是每两年翻一倍,这个就意味着同样大小的芯片可以容纳更多的晶体管,从而使得处理器的速度和性能大幅提高。比如说最初的英特尔的某款芯片只有2300个晶体管,而现在的英特尔酷睿I9处理器则拥有超过十亿个晶体管,性能,速度和处理能力都发生了翻天覆地的变化。


那么简单来说,摩尔定律可以理解成电子产品。成本快速下降,比如说在一个通胀的时代,手机为什么反而越来越便宜?汽车为什么反而越来越便宜?就是因为这些行业高度符合摩尔定律,它的成本的下降远远大于货币的增发。所以你买的面涨价的,买的西瓜涨价了,你去理发店那个理发的价格涨了,但是汽车反而在降,因为摩尔定律


API


API就像大学的食堂,里面有许多打饭窗口。每个窗口上都标明了菜品名称,比如鱼香肉丝、醋溜丸子、西红柿炒鸡蛋等。你不需要关心这些菜是如何制作的,也不需要亲自下厨,只需根据自己的口味选择对应的窗口,点你想吃的菜即可。


同样地,不同的人进入同一个食堂,打出的菜也会因人而异,每个人都能找到适合自己的口味。API的工作原理与此类似。作为开发者,你不需要亲自编写所有功能,也不需要了解对方后台的具体实现细节。你只需按照API提供的规则进行调用,就能获得所需的功能或数据。就像在食堂点菜一样,你只需选择需要的“菜品”,剩下的工作都由API来完成。这种设计极大地简化了开发流程,让你能够快速构建应用,而无需从头开始。


提示词工程Prompt Engineering


当你去看医生时,不能仅仅用“不舒服”这三个字来描述你的症状。这样的描述过于笼统,医生难以准确诊断病因,甚至可能给出泛泛而谈的建议。为了获得更精准的治疗方案,你需要尽可能详细地描述自己的情况,比如哪里不舒服、症状持续了多久、是否有家族遗传病史、近期是否感冒或做过哪些事情等。信息越具体,医生越能快速了解你的病情,从而对症下药。


同样的道理也适用于修手机。你不能简单地说“手机坏了”,而是需要详细说明问题的具体情况。比如,手机是摔坏了、进水了,还是出现了其他故障?屏幕是不亮了、频繁闪烁,还是电池耗电过快?快捷键是否失灵?你提供的信息越详细,维修人员越能精准定位问题,从而高效修复。


这种逻辑同样适用于与人工智能的沟通。作为提示词工程师,你不能简单地要求AI“给我做”,因为它无法理解你的具体需求。你需要明确、细致地描述你的要求,比如任务目标、背景信息、期望的输出格式等。你的提问越清晰、越具体,AI的回复质量就越高。因此,沟通的精准度直接决定了结果的质量,无论是在医疗、维修,还是与AI的交互中,都是如此。


语言模型GPTBERT


在人工智能领域,GPT和BERT是两款基于Transformer架构的主流预训练语言模型,尽管它们共享相同的底层结构,但在原理和应用上存在显著差异。


GPT(Generative Pre-trained Transformer)采用单向语言模型和自回归机制。其核心原理是通过单向方式,将已生成的文本作为条件来预测下一个词。具体而言,模型在生成每个词时,都会将当前已生成的序列作为输入,逐步生成后续内容,直至完成整个句子或文章。这种机制使其特别擅长生成类任务,如文本生成、对话系统等。相比之下,BERT(Bidirectional Encoder Representations from Transformers)则采用双向语言模型和掩码机制。它同时考虑上下文信息,通过预测被掩盖的词来理解当前词的含义。这种设计使其在理解类任务中表现优异,例如问答系统、文本分类等。


为了更好地理解两者的区别,我们可以将GPT和BERT比作两位学习英语的人,他们的学习方法和目标截然不同。GPT如同一位专注于写作的达人,通过大量阅读书籍和文章来提升写作能力。它的学习方式是深入理解文本内容,分析文章结构和用词,从而提升语言表达能力。这类似于我们通过广泛阅读来提高语言理解力。而BERT则更像一位应试高手,通过不断练习题目和纠正错误来提高英语应用能力。它的学习方式是通过反复实践和反馈来优化语言理解,类似于我们通过大量练习题来提升语言能力。


举例来说,如果要对一篇医学论文进行评价,GPT模型更擅长从文章结构和词汇的角度判断其流畅性,例如是否存在矛盾或重复之处。而BERT模型则更擅长从内容层面进行分析,判断文章是否涉及特定医学主题(如肿瘤治疗、病毒传播等),以及是否存在错误、偏见或已被证实的误导性信息。


因此,在不同的任务和场景下,GPT和BERT各有其独特的优势和应用价值。简而言之,GPT更注重沟通的流畅性,而BERT则更强调理解的准确性。那么,为什么GPT能够成为主流语言模型呢?主要原因在于它极大地降低了人机交互的门槛,使其更贴近人类交流方式。正如从电脑到手机的演变,鼠标和键盘不再是必需品,用户数量因此呈几何级增长。同样,GPT的易用性和生成能力使其在众多语言模型中脱颖而出,成为当今的主流选择。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询