AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


1.5B小模型逆袭!DeepScaleR如何用强化学习颠覆AI数学竞赛规则

发布日期:2025-02-20 16:58:10 浏览次数: 1577 来源:OpenCSG社区
推荐语

在AI领域,小型模型如何逆袭?伯克利团队的DeepScaleR模型给出了答案!

核心内容:
1. 1.5B参数小模型如何超越大规模模型
2. DeepScaleR的创新训练方法:迭代式上下文扩展
3. 强化学习奖励机制的应用与效果

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
大规模模型的训练常常需要庞大的计算资源和高昂的成本。然而,近日,来自加州大学伯克利分校的研究团队以一款1.5B参数的DeepScaleR模型,通过强化学习(RL)微调,成功超越了OpenAI的o1-preview,在AIME 2024等数学竞赛中展现出了强大的推理能力。这个令人震撼的突破让AI领域再次掀起了对小型模型的热议。

突破性成就:1.5B小模型挑战大模型

在AI界,许多人认为,要在数学推理和复杂任务中取得优异成绩,只有大规模的预训练模型才能做到。然而,伯克利团队的研究打破了这一常规,他们通过精巧的训练方法和高质量的数学数据集,在1.5B参数的小模型上,成功应用强化学习提升推理能力,超越了OpenAI的o1-preview。
这一成果证明了:并非越大越好,在特定领域内,小模型也能凭借创新的训练方法展现强大的潜力。

DeepScaleR的创新训练方法:循序渐进,逐步突破

DeepScaleR的成功不仅在于其小模型的高效性,更在于其独特的训练方法。这种方法突破了传统大规模预训练模型的限制,采用了渐进式强化学习策略,逐步引导模型提高推理能力。

1. 迭代式上下文扩展:从短到长,逐步加深推理深度

DeepScaleR的训练策略基于迭代式上下文扩展。与直接训练大上下文长度的传统方法不同,研究团队选择了从较短的上下文开始,逐步扩大模型的推理空间。模型的初始阶段处理的是8K字符长度的题目(类似于高中生的作业),随着模型推理能力的提升,逐渐扩展到16K字符(挑战性更高的题目),最终提升到24K字符,这种逐步扩展的策略能够有效避免过早增加复杂性对模型训练的负面影响。
这种方法的核心理念在于:让模型首先掌握较短的、较简单的推理过程,再通过扩展上下文长度来挑战更复杂的数学问题。这一策略帮助模型逐步构建了自己的推理路径,避免了“信息过载”,让模型能够高效地消化和理解复杂的数学问题。

2. 强化学习奖励机制:纯粹的正确性驱动

DeepScaleR采用了非常简洁而有效的强化学习奖励机制——1分奖励正确答案,0分奖励错误答案。这一方式避免了奖励滥用的问题,确保了模型只会在给出正确答案时获得奖励。与传统强化学习中可能使用的“过程奖励”不同,DeepScaleR使用了结果奖励模型(ORM),即只关心最终结果的正确性而非中间步骤。这种方法在数学推理任务中尤其有效,因为数学推理的目标是最终给出正确的答案,而中间过程的正确性往往不能直接映射为最终结果。
这种纯粹的二进制奖惩机制实际上更加符合数学的严谨性:没有中间地带,只有正确与错误,这种奖励方式使得模型能够专注于解决问题的核心,避免了过多的“冗余”推理。

3. 小模型大突破:高效利用计算资源

尽管DeepScaleR只有1.5B的参数,但它的训练效率远超预期。整个训练过程只消耗了3,800 A100 GPU小时,这意味着模型的训练成本仅为约4,500美元。这与传统的大规模预训练模型相比,显得非常经济高效。例如,在使用大量参数和上下文的传统大模型训练时,训练成本通常会达到数百万美元,甚至更多。DeepScaleR的成功表明,小模型同样可以通过创新的训练方法获得强大的推理能力,而不需要庞大的计算资源
这种训练的高效性得益于两大因素:一是强化学习的高效利用,二是迭代式上下文扩展,这使得训练过程更加专注于模型的推理能力,而非大量计算。

 卓越性能:超越o1-preview,挑战数学竞赛

为了评估DeepScaleR的性能,研究团队将其与多个主流模型进行了对比,包括基础的DeepSeek-R1-Distilled-Qwen-1.5B和来自学术界的rSTAR-Math-7BEurus-2-7B-PRIME、以及Qwen2.5-7B-SimpleRL等模型。
通过对比可以看出,DeepScaleR-1.5B-Preview在AIME 2024MATH 500AMC 2023等多个数学竞赛测试中,表现出色。尤其是在AIME 2024测试中,DeepScaleR的Pass@1准确率达到了43.1%,比基础模型提升了14.4%,这一成绩超越了OpenAI的o1-preview,展示了其出色的推理能力。
在所有的测试中,DeepScaleR的平均性能也表现极为出色,达到了57.0%,远超其他基准模型,尤其是在MATH 500AMC 2023测试中,DeepScaleR均取得了87.8%73.6%的卓越成绩。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

和创始人交个朋友

回到顶部

 

加载中...

扫码咨询