我们都是架构师!
关注架构师(JiaGouX),添加“星标”
获取每天技术干货,一起成为牛逼架构师
技术群请加若飞:1321113940 进架构师群
投稿、合作、版权等邮箱:admin@137x.com
我要投稿
探索DeepSeek大模型的创新技术,了解其如何革新AI领域。核心内容:1. MLA技术:DeepSeek对Transformer架构的创新改进,显著降低推理显存消耗2. GRPO算法:优化策略模型的创新方法,简化计算过程3. 奖励建模:DeepSeek-R1的奖励系统设计,提升模型性能
自GPT采用Transformer架构取得成功以来,经典Transformer架构一直是很多大模型的标配。但这不意味着Transformer是完美无缺的。DeepSeek在Transformer架构的基础上也做了很多创新,主要为:多头潜在注意力即MLA 。
MLA用于高效推理,源自DeepSeek V2的原创,其显著降低了推理显存的消耗。MLA主要通过改造注意力算子压缩KV 缓存大小,将每个查询KV量减少93.3%,实现了在同样容量下存储更多KV缓存,极大提升了推理效率。
个人认为,MLA之后,应该还会有QMLA(量化MLA)或者CMLA(压缩MLA),甚至是超越现有Attention模式的技术出现,而用了很多年的Transformer也将经历大的变革。真正的颠覆创新可能,正摆在DeepSeek和国内其他大模型团队的面前。
DeepSeek-R1[4]的核心算法是 Group Relative Policy Optimization(GRPO)。其目标是优化策略模型,使其在特定任务中表现最佳。与传统策略优化方法不同,GRPO 不依赖与策略模型同规模的评价模型,而是通过组内评分的方法估计基线,简化了计算过程。具体来说,对于每个问题,GRPO 从旧策略 πθoldπθold 中对一组输出 {o1,o2,⋯ ,oG}{o1,o2,⋯,oG} 进行采样,然后通过最大化以下目标来优化策略模型 :
奖励建模:对于每个输出,根据预设的奖励机制计算其对应的奖励,奖励综合考虑准确性奖励、格式奖励和语言一致性奖励等。为了训练DeepSeek-R1-Zero[5],采用基于规则的奖励系统,主要包括两种类型的奖励:
准确性奖励
准确性奖励旨在衡量模型给出的响应是否准确无误。以数学问题为例,当问题存在明确的答案时,模型需要按照特定格式(如在特定的框内)给出最终答案,这样就能依据既定规则对答案的正确性进行有效验证。再比如在解决 LeetCode 问题时,可借助编译器,依据预先设定好的测试用例来生成反馈,以此判断模型给出的解题方案是否正确,进而确定模型应获得的准确性奖励分值。
格式奖励
为了规范模型输出,除了运用准确性奖励模型,我们还引入了格式奖励模型。此模型主要作用是促使模型把思考过程置于特定的 < 标签之中。通过这种方式,使得模型输出的结构更加清晰、规范,方便后续对模型输出内容的分析与处理,同时也能引导模型以更有条理的方式展示其推理过程 。
为了让1991年就提出的MoE架构更好的融入大模型体系,克服传统MoE模型的训练难题。DeepSeek采用了细粒度专家+通才专家的思路,不再使用少数大专家的结构,而是使用大量极小的专家结构。这个思路的本质在于将知识空间进行离散细化,以更好的逼近连续的多维知识空间,是一个非常好的方法。
无辅助损耗负载均衡策略可在不依赖辅助损失函数的情况下平衡分配计算/训练负载,更好的提高训练稳定性。
传统的规避路由崩溃的方法是强制“平衡路由”,即通过训练策略让每个专家在足够大的训练批次中被激活的次数大致相等。这一策略也就是“辅助损失”。但这种强制性的辅助损失会由于训练数据的结构不均衡特征,导致同领域的专家能力分散到不同的专家模块之中,极度损害MoE模型的性能。理想的 MoE 应该有一些经常访问高频通用信息,并具备其他访问较少的专业领域专家。如果强制平衡路由,将失去实现此类路由设置的能力,并且必须在不同的专家之间冗余地复制信息。
DeekSeek采用了“增加共享专家+无辅助损耗负载平衡”的方法解决这一问题。
DeepSeek将专家分两类:共享专家和路由专家。共享专家始终会被路由,训练中重点确保路由专家的路由均衡。
无辅助损耗负载均衡(Auxiliary-Loss-Free Load Balancing)方法是将特定于专家的偏差项添加到路由机制和专家亲和力中。偏差项不会通过梯度下降进行更新,而是在整个训练过程中持续监控并进行调整以确保负载平衡。如果训练中某个专家没有获得合理的命中次数,可以在每个梯度步骤中微调偏差项增加命中概率。
通过动态调整,DeepSeek-V3 在训练过程中获得了比有辅助损失均衡模型更好的性能。
从模型架构分析看,我们认为这种分配策略可能还不是理论最优的,但该方法已比强制辅助损失有了显著的改进。
MoE 用于高效训练,其由多个专家模型组成,通过部分激活给定任务所需的特定专家,而不是激活整个神经网络,从而降低计算消耗。MoE非DeepSeek原创,但DeepSeek早在V2之前的 代码和数学模型,就从稠密架构转向 MoE架构。V3模型中更是大胆地使用了高难度的256个路由专家和1个共享专家,并创新的采用冗余专家,来实现负载均衡策略和训练目标。
DeepSeek-R1 是人工智能进步浪潮中的最新强音。对于机器学习研究与开发社区而言,这是一次重要发布,原因包括:
与现有的大多数 LLM 一样,DeepSeek-R1 也是一次生成一个 token,不同的是,它在解决数学和推理问题时表现尤为出色,因为它能够通过生成“思考 token”来解释其思维链,从而花更多时间处理问题。
通过三个步骤创建高质量 LLM 的通用方法:
1.语言建模阶段:在这个阶段,我们使用海量网络数据训练模型,以预测下一个词。此阶段的产物是一个基础模型。
2.监督微调阶段:通过监督微调,使模型在遵循指令和回答问题方面更加实用。此阶段生成的是一个指令调优模型,或称为监督微调(SFT)模型。
3.偏好调优阶段:最后,通过偏好调优进一步优化模型行为,使其与人类偏好更一致,最终得到一个偏好调优的 LLM,用户可以通过 Playground 和应用程序与之交互。
DeepSeek-R1 遵循这一通用方法。第一阶段的细节源自之前关于 DeepSeek-V3 模型的论文。R1 使用了那篇论文中的基础模型(而不是最终的 DeepSeek-V3 模型),并同样经历了 SFT 和偏好调优步骤,但其具体实现方式有所不同。
在 R1 的创建过程中,有三点需要特别强调。
这是大量的长链式思维推理示例(多达 60 万个)。这些数据的获取极为困难,并且在人类标注的规模上成本高昂。这也就是为什么创建这些数据的过程成为需要特别强调的第二个重点。
这些数据是由 R1 的前身模型生成的,一个尚未命名但专注于推理的“兄弟”模型。该模型的灵感来源于一个名为 R1-Zero 的第三个模型(稍后我们会讨论)。它的意义不在于它本身是一个优秀的 LLM,而在于它的创建过程仅需少量标注数据,并结合大规模强化学习,从而生成了一个在解决推理问题上表现出色的模型。
随后,这个专注推理的模型输出结果可以被用来训练一个更加通用的模型,使其在执行其他非推理任务时,也能达到用户对 LLM 的期望水平。
它分成两步:
在这里,强化学习(RL)被用来创建中期推理模型。随后,该模型被用于生成 SFT 推理示例。而使得创建这个模型成为可能的,是一个早期实验中开发的名为 DeepSeek-R1-Zero 的模型。
R1-Zero 的特别之处在于,它无需标注的 SFT 训练集就能够在推理任务中表现出色。它的训练过程直接从一个预训练的基础模型开始,通过强化学习(RL)训练完成(没有经过 SFT 步骤)。它的表现如此出色,以至于可以与 O1 媲美。
这点意义重大,因为数据一直是推动机器学习模型能力的燃料。那么,这个模型如何能够摆脱这种历史呢?这指向了两个关键因素:
现代基础模型已经跨越了某个质量和能力的阈值(例如,这个基础模型是在 14.8 万亿高质量 token 上训练的)。
与通用聊天或写作请求不同,推理问题可以通过自动化方式进行验证或标注。以下是一个例子来说明这一点,这可以是 RL 训练步骤中的一个提示/问题:
“编写 Python 代码,接收一个数字列表,将其按顺序排序,但在列表开头添加 42。”
像这样的问题天然适合多种自动化验证方式。例如,当我们将问题呈现给正在训练的模型时,它可能会生成一个答案。然后,我们可以通过以下方式进行验证:
我们可以自动检查(无需人工干预)并得出以下结论:
这些信号都可以直接用于改进模型。当然,这个过程是在多个示例(以小批量形式)和连续的训练步骤中完成的。
这些奖励信号和模型更新是模型在强化学习训练过程中持续改进任务的方式,正如论文中的图 2 所示。
与这种能力的提升相对应的是生成的回应长度,模型生成更多的思维 token 来处理问题。
这个过程是有效的,但尽管 R1-Zero 在推理问题上得分很高,它仍然面临一些其他问题,使得它的可用性不如预期。
尽管 DeepSeek-R1-Zero 展示了强大的推理能力,并能够自主发展出意想不到且强大的推理行为,但它也面临一些问题。例如,DeepSeek-R1-Zero 在可读性差和语言混杂等方面存在困难。
R1 旨在成为一个更易用的模型。因此,R1 并不像 R1-Zero 那样完全依赖于强化学习过程,而是如前所述,在两个地方得到了应用:
1.创建一个中期推理模型,用于生成 SFT 数据点。
2.训练 R1 模型,以改进推理和非推理问题的表现(使用其他类型的验证器)。
为了使中期推理模型更具实用性,它在几千个推理问题的示例上进行监督微调(SFT)训练(其中一些是从 R1-Zero 生成并过滤出来的)。论文将此称为“冷启动数据”。
冷启动:与 DeepSeek-R1-Zero 不同,为了防止基础模型在强化学习训练的初期阶段出现不稳定的冷启动问题,对于 DeepSeek-R1,我们构建并收集了一小部分长链推理(CoT)数据,以微调模型作为初始的 RL 行为者。为了收集这些数据,我们探索了几种方法:使用少量示例提示(few-shot prompting)来提供长链推理作为示范,直接提示模型生成详细的答案,并进行反思和验证,收集 DeepSeek-R1-Zero 输出的可读格式,并通过人工标注者进行后处理以改进结果。
如果你对监督微调(SFT)的概念不熟悉,它是通过将训练示例以提示和正确完成的形式呈现给模型来进行的过程。以下是第 12 章中的一张图,展示了几个 SFT 训练示例:
就像 GPT-2 和 GPT-3 初期的模型一样,DeepSeek-R1 是由一堆 Transformer 解码器块堆叠而成。它由 61 个解码器块组成,其中前三个是密集层(dense layers),其余的是混合专家层(mixture-of-experts layers)(可以参考我合著者 Maarten 的精彩入门指南:A Visual Guide to Mixture of Experts (MoE))。
在模型维度大小和其他超参数方面,它们如下所示:
通过这些信息,你现在应该对 DeepSeek-R1 模型有了基本的直观理解。
DeepSeek-R1模型的知识蒸馏技术让庞大的知识 “传授” 给更小的模型。具体是向小模型输入大量大模型解决问题的示例,使小模型学习大模型的推理和决策方式。例如,展示DeepSeek-R1解数学证明题的步骤,小模型模仿其思维,在自身参数空间构建类似知识体系。
最初的DeepSeek-R1模型采用强化学习训练。训练中模型接收任务和数据,根据决策产生结果,系统依结果好坏给予奖惩,模型据此调整参数,提升后续任务处理能力。
而知识蒸馏后的模型针对特定任务微调。如针对编程任务,用大量代码数据训练,让模型掌握编程语言语法、语义和常见编程模式,以更准确高效地生成代码;对于数学任务,使用各种数学问题和解题思路强化训练,提升模型数学计算、逻辑推理能力。
原始DeepSeek-R1模型参数众多,运行需昂贵服务器,而蒸馏版本如15亿或 32亿参数的模型,成本低、运行快,还能保持出色性能,使更多人在有限预算下享受人工智能便利。
与部分人工智能模型不同,DeepSeek-R1蒸馏模型会逐步展示 “思考过程”(如下图所示)。回答问题或解决任务时,用户能清楚看到其推导结论的步骤,便于理解和信任,也利于开发人员和研究人员调试。
DeepSeek-R1项目推出了两个独立版本,分别针对推理能力和多阶段训练流程进行了创新优化:
相较于GPT-4o-Mini这一训练成本高达数亿美元的闭源大模型,DeepSeek-R1在智能度、匹配度方面与GPT-4o-Mini“旗鼓相当”,并在正确回复一致度方面高于GPT-4o-Mini,更加稳定可靠。大模型仍然未形成稳定输出正确、安全答案的能力,对大模型相关应用的安全防护必不可少,通过建立针对输出内容的“安全围栏”过滤掉不安全的输出内容,是当前保障AI工程化应用的一项方案。
具体而言,DeepSeek-R1与Llama3.1相比,“智力水平”得分高出近一倍,具备更精准的理解、更强的创造力、更可靠的决策支持、更自然的交互、更强的学习能力,以及更高效的工作表现。匹配度测评中,DeepSeek-R1平均得分高于Llama3.1,在数据运算、复杂推理场景下,DeepSeek-R1较Llama3.1解决问题能力更强。在一致度测试中,DeepSeek-R1回答的自我验证能力较Llama3.1呈现出了代际差距,能够提供更可靠、更稳定、更符合行业标准的答案。安全度测评发现,DeepSeek-R1在伦理道德、偏见歧视方面的得分总体高于Llama3.1,而在高强度对抗测评数据集中,由于DeepSeek-R1呈现了深度思考和推理的完整过程,在此过程中导致有害内容的输出,存在需要补强的安全缺陷。
[1]
DeepSeek:https://zhida.zhihu.com/search?content_id=253172569&content_type=Article&match_order=1&q=DeepSeek&zhida_source=entity[2]
MLA:https://zhida.zhihu.com/search?content_id=253172569&content_type=Article&match_order=1&q=MLA&zhida_source=entity[3]
GRPO:https://zhida.zhihu.com/search?content_id=253172569&content_type=Article&match_order=1&q=GRPO&zhida_source=entity[4]
DeepSeek-R1 :https://zhida.zhihu.com/search?content_id=253172569&content_type=Article&match_order=1&q=DeepSeek-R1&zhida_source=entity[5]
DeepSeek-R1-Zero:https://zhida.zhihu.com/search?content_id=253172569&content_type=Article&match_order=1&q=DeepSeek-R1-Zero&zhida_source=entity[6]
MoE:https://zhida.zhihu.com/search?content_id=253172569&content_type=Article&match_order=1&q=MoE&zhida_source=entity[7]
OpenAI O1:https://zhida.zhihu.com/search?content_id=253172569&content_type=Article&match_order=1&q=OpenAI+O1&zhida_source=entity[8]
Llama3.1:https://zhida.zhihu.com/search?content_id=253172569&content_type=Article&match_order=1&q=Llama3.1&zhida_source=entity
如喜欢本文,请点击右上角,把文章分享到朋友圈
如有想了解学习的技术点,请留言给若飞安排分享
因公众号更改推送规则,请点“在看”并加“星标”第一时间获取精彩技术分享
·END·
相关阅读:
作者:嫖姚
来源:zhuanlan.zhihu.com/p/20751924531
版权申明:内容来源网络,仅供学习研究,版权归原创者所有。如有侵权烦请告知,我们会立即删除并表示歉意。谢谢!
我们都是架构师!
关注架构师(JiaGouX),添加“星标”
获取每天技术干货,一起成为牛逼架构师
技术群请加若飞:1321113940 进架构师群
投稿、合作、版权等邮箱:admin@137x.com
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-13
OpenAI发布智能体开发套件:AI能自主操作计算机,但建议用户“监工”
2025-03-13
浅谈 Agent、MCP、OpenAI Responses API
2025-03-13
滴滴滴DeepSeek!三场活动金句已送达:DeepSeek is a Feature,not a Product
2025-03-12
Manus工作原理揭秘:解构下一代AI Agent的多智能体架构
2025-03-12
谷歌推出 Gemma 3 了
2025-03-12
Anthropic推出模型上下文协议MCP,解锁智能体万能手接口
2025-03-12
为何模型上下文协议 (MCP) 最终会获胜?[译]
2025-03-12
我不许你还不知道Qwen Chat
2024-08-13
2024-06-13
2024-09-23
2024-08-21
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-03-12
2025-03-12
2025-03-10
2025-03-10
2025-03-10
2025-03-10
2025-03-08
2025-03-08