微信扫码
与创始人交个朋友
我要投稿
这是对 DeepSeek-R1 技术报告的精彩解读,揭示前沿推理模型成果。核心内容:1. DeepSeek-R1 与其他模型的性能对比2. DeepSeek-R1 的独特技术路线3. DeepSeek-R1 的贡献及效果评估
话不多说,show me the benchmark。从各个高难度benchmark结果来看,DeepSeek-R1已经比肩OpenAI-o1-1217,妥妥的第一梯队推理模型。同时蒸馏Qwen2.5-32B而来的DeepSeek-R1-32B也取得非常惊艳的效果,和OpenAI-o1-mini旗鼓相当。
天下苦SFT久矣,已有的公开研究无一例外都是采用SFT+RL的方式,首先需要大量的SFT数据进行指令微调。而DeepSeek不走寻常路。他们发现即使不使用SFT,也可以通过大规模强化学习 (RL) 显著提高推理能力。此外,通过包含少量冷启动数据进行SFT就可以进一步提高性能。
本文的几个主要贡献:
下面会逐一介绍。
直接从DeepSeek-V3-Base开搞,仍然用DeepSeek独家定制的GRPO,使用如下平平无奇的PE模版。
RM方面,考虑到是推理任务,没有训练常规的稠密奖励模型,而是采用了两种奖励方式结合:
1.准确性奖励:对于数学问题,直接匹配标准答案;对于代码问题,基于编译执行单测去验证。
2.格式奖励:看CoT过程是否以标准<think> </think>
包裹。
就是这么看起来似乎暴力又简单的方法,效果却出奇地好。
看起来随着训练步数的增加,性能稳步提升,达到和OpenAI-o1-0912接近的水平。
并且观察到了明显的“进化”现象,随着训练步数的增加,输出平均长度也在增加。意味着LLM似乎自己已经潜移默化学会了进行更多的思考和推理,达到更好的效果。
甚至出现了自主的“Aha Moment”情况,突然就能开始反思。DeepSeek顿悟了,DeepSeek的兄弟们也顿悟了,我似乎也顿悟了。怎么只是平平无奇的奖励信号,就能让它学会这么多?还得是RL!!!
真就这么完美?SFT完全不必要了?显然也不是,DeepSeek的兄弟们也发现了一些问题,比如,DeepSeek-R1-Zero 生成的答案可读性相对差、存在混合语言输出情况(这个似乎QwQ也比较明显)。为了让模型说人话,还是得加点SFT,这就到DeepSeek-R1的舞台了。
DeepSeek-R1-Zero已经证明了,完全不进行SFT, 直接RL就能显著提升LLM的推理能力;但是同时输出的可读性、混合语言输出问题还是老大难。可别忘了SFT不就是为了遵循指令,让LLM模仿说人话吗?那把SFT阶段再加上不就得了。既然完全不SFT也能有非常好的效果,那少加一点是不是就能让LLM学会说人话了,同时推理能力也能进一步提升呢?DeepSeek-R1采用如下4个阶段,又把能力进一步加强。
采用一定的手段收集少量高质量数据:比如对于长CoT数据,使用few-shot,直接提示DeepSeek-R1-Zero通过反思和验证生成详细答案,然后通过人工注释者的后处理来细化结果。
总共收集了数千个样本,相比完全不用SFT,收集的样本进行SFT,可以显著增强可读性;同时后续的实验也证明了通过少量数据冷启动也能进一步提升推理能力。
然后对数学、代码等推理场景进行RL。这里没啥好说的,和DeepSeek-R1-Zero一样的方式。针对DeepSeek-R1-Zero输出中语言混合的情况,额外增加一个奖励:语言一致性奖励,统计输出中目标语言的占比作为奖励信号。将原始的准确性奖励与语言一致性奖励求和作为最终奖励,进行过程反馈。
这一步主要是为了提升模型的通用能力,通过构建两部分的数据进行SFT来实现。
1.推理数据:采用拒绝采样的方式从前一阶段得到的模型生成推理过程,同时额外引入一些无法用规则进行奖励的数据(这部分数据使用DeepSeek-V3通过LLM-as-judge的方式进行奖励,比较GroudTruth与实际输出)。同时,过滤掉了包含混合语言、长段落、代码块的CoT数据。总计有60w样本。
2.非推理数据:使用DeepSeek-V3生成、使用DeepSeek-V3的SFT数据,共计20w推理无关的样本。
这一阶段总共生成了80w样本,用DeepSeek-V3-Base 进行了2个epoch的SFT。
最后为了同时平衡推理能力和通用能力,又进行了一次RL。对于不同的数据类型,采用不同的prompt和奖励。
对于推理数据,使用DeepSeek-R1-Zero中的方法,该方法在数学、编程和逻辑推理领域使用基于规则的奖励指导学习过程。对于通用数据,使用通用的RM来进行奖励。基本复用DeepSeek-V3的方式。对于有用性,专注于评估最终的summary,确保评估对用户的实用性和相关性,同时尽量减少对底层推理过程的干扰。对于无害性,评估模型的整个响应,包括推理过程和总结,以识别和减轻生成过程中可能出现的任何潜在风险、偏见或有害内容。
最终,奖励信号和多样化数据分布的整合使得最终的模型既能保持推理能力,又能满足有用性和无害性,取得比较好的用户体验。
实验结果自然是遥遥领先,和OpenAI-o1-1217不分伯仲。
直接用DeepSeek-R1阶段三:“拒绝采样和SFT” 时的数据对小模型进行SFT,不包含RL阶段,就能取得比较好的效果。
从实验结果来看,蒸馏是又便宜又实用。用小的模型哼哧哼哧一顿SFT+RL操作,最后的效果还远不如直接蒸馏更好性能模型的输出直接SFT。
这里DeepSeek团队也是诚意满满,分享了几个业界呼声很高,但是他们暂时没尝试成功的方法。
PRM: 指出PRM的几个主要限制,影响了它的规模化应用。
1. 在一般推理过程中明确定义细粒度的步骤比较困难。
2. 对步骤打标难以扩展,采用自动标注难以获得较高准确率,手动标注又难以规模化应用。
3. 引入基于模型的PRM,不可避免地会遇到reward hacking, 重新训练奖励模型需要额外的训练资源,并使整个训练流程复杂化。
MCTS: 他们也尝试了实用MCTS,但是过程中遇到了一些问题,1是搜索空间过大,虽然设置了最大扩展限制使得不会无限搜索,但是容易陷入局部最优;2是value model直接影响生成的质量,而训练一个细粒度的value model本质上是困难的,这使得模型比较难以迭代改进。
参考
https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-01-22
提升RAG效率,从这五大开源数据抓取工具开始
2025-01-22
DeepSeek Engineer:集成 DeepSeek API 的开源 AI 编程助手,支持文件读取、编辑并生成结构化响应
2025-01-22
无需GPU本地轻松运行AI模型的开源项目LocalAI
2025-01-22
Cursor平替,Cline插件+DeepSeek使用教程和实际体验
2025-01-22
DeepSeek-R1性能逆天,挑战OpenAI-o1!
2025-01-22
OpenAI又开源了!不用代码就能构建复杂多Agents实时语音协作系统
2025-01-22
硅谷AI霸权和神话的破灭开端:浅谈DeepSeek R1的意义
2025-01-22
DeepSeek大模型新王|DeepSeek R1/R1-Zero开源来袭~
2024-07-25
2024-05-06
2024-08-13
2024-06-12
2024-07-11
2024-07-20
2025-01-01
2024-09-20
2024-06-16
2024-06-10
2025-01-22
2025-01-16
2024-12-24
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13