AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Qwen2.5-Max全面拥抱DeepSeek技术路线

发布日期:2025-02-14 13:49:51 浏览次数: 2068 来源:架构师带你玩转AI
推荐语

探索超大规模MoE模型在AGI发展中的突破性进展。

核心内容:
1. Scaling Law与AGI的联系及DeepSeek技术路线的披露
2. Qwen2.5-Max模型的超大规模MoE架构和训练过程
3. MoE模型相较于Dense模型的优势及专家协同工作机制

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

人们普遍认为Scaling Law(缩放定律)是一种通向 AGI 的可能的路径即持扩大数据规模和模型规模可以显著提升模型的智能水平。然而,无论是密集模型还是专家混合(MoE)模型,研究和工业界在有效扩展极大规模模型方面的经验有限

关于这一扩展过程的许多关键细节,直到最近发布的DeepSeek V3、R1模型才得以披露,让大家了解到超大规模 MoE 模型的效果及实现方法(强化学习和知识蒸馏)。

与此同时,阿里通义千问团队正在研发超大规模的 MoE 模型 Qwen2.5-Max,一个经过超过20万亿个标记的预训练,并进一步通过精心策划的监督微调(SFT)基于人类反馈的强化学习(RLHF)方法进行后训练的大规模MoE模型

Qwen2.5-Max全面拥抱DeepSeek技术路线。


一、稠密模型 or MoE模型

稠密模型(Dense)和混合专家模型(MoE)是什么?Dense模型(即稠密模型)和Mixture of Experts(MoE,混合专家模型)是深度学习领域中两种具有显著区别的网络架构
Dense模型是每一层都与前面所有层直接相连,这种设计有助于更有效地利用特征减少参数数量,并促进梯度的传播,从而缓解梯度消失或爆炸的问题。
而MoE模型是一种混合专家模型,它将输入分配给一组专家网络,然后通过门控网络来决定每个输入应该由哪些专家处理。
Qwen2.5-Max为什么放弃Dense选择MoE?MoE模型通过多个专家子模型的协同工作,实现高效处理特定任务,同时智能选择相关专家模型来处理输入数据,优化计算资源使用,提高整体效率和效果。
  • 专家协同工作:MoE模型通过多个“专家”子模型协同工作,能够更有效地处理特定任务。这种分工合作的方式类似于一个团队中各个专家各司其职,共同完成复杂的项目,从而提高了整体效率和效果。

  • 智能选择专家:MoE架构能够智能选择适当的“专家”模型来处理输入数据,从而优化计算资源的使用。这意味着在处理不同任务时,只有相关的专家子模型会被激活,降低了不必要的计算开销。

大模型厂商相继放弃Dense选择MoE这就像当年移动互联网时代,选择水平复制的微服务架构,而不是继续垂直扩展单机性能。

Mixture of Experts Explained

在基座模型的对比中,将Qwen2.5-Max与领先的开源MoE模型DeepSeek V3、最大的开源稠密模型Llama-3.1-405B及开源稠密模型前列的Qwen2.5-72B进行了对比。结果显示,MoE模型(如Qwen2.5-Max和DeepSeek V3)得分高于Dense模型(如Llama-3.1-405B和Qwen2.5-72B),具体对比结果如下图所示。


一文搞懂DeepSeek - 混合专家(MoE)

二、预训练和后训练

Qwen2.5-Max如何进行预训练和后训练Qwen2.5-Max通过超过20万亿个标记的预训练数据,结合精心策划的监督微调(SFT)和基于人类反馈的强化学习(RLHF)方法,实现了高效的预训练和后训练。
  1. 监督微调(SFT):通过使用大量的人工标注数据对预训练模型进行微调的过程

  2. 基于人类反馈的强化学习(RLHF):通过收集人类对模型输出的反馈,并使用强化学习算法对模型进行优化。Qwen2.5-Max结合了多阶段强化学习,包括离线学习DPO和在线学习GRPO。

一文搞懂SFT、RLHF、DPO、IFT

Qwen2.5-Max为什么拥抱DeepSeek技术路线?尽管Qwen2.5-Max的预训练及后训练流程与OpenAI相似,均基于大规模数据、先进架构及监督、强化学习,但其独特之处在于采用优化的GRPO强化学习算法,并通过知识蒸馏替代大规模SFT进行后训练,这些策略与DeepSeek在提升模型性能与效率上的探索相契合,因此被视为拥抱DeepSeek技术路线。

  1. GRPO(群组相对策略优化)过组内相对奖励来优化模型,而不需要额外的价值模型(critic model)。在传统的强化学习中,模型(称为“策略模型”)会根据环境给出的奖励信号来调整自己的行为,这通常涉及一个额外的模型(称为“价值模型”)来评估当前策略的好坏。GRPO简化了这个过程,它不需要价值模型,而是通过组内相对奖励来优化策略模型。

  2. 知识蒸馏(Distillation一种模型压缩和知识迁移的方法,它通过将大型教师模型中的知识转移到小型学生模型中,从而提高学生模型的性能。这种方法通常用于减少模型的计算成本,同时保持或提升模型的性能。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

和创始人交个朋友

回到顶部

 

加载中...

扫码咨询