RL也能请“场外大神”?LUFFY打破模仿僵局,平衡探索与学习,解锁深度推理新境界!


RL也能请“场外大神”?LUFFY打破模仿僵局,平衡探索与学习,解锁深度推理新境界!

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

论文标题:LearningtoReasonunderOff-policyGuidance
论文地址:https ://arxiv.org/abs/2504.14945
Huggingface地址:https ://huggingface.co/papers/2504.14945
Github地址:https ://github.com/ElliottYan/LUFFY
TLDR:提出LUFFY强化学习方法,一种结合离线专家示范与在线强化学习的推理训练范式,打破了“模仿学习只学不练、强化学习只练不学”的传统壁垒。LUFFY通过将高质量专家示范制定为一种离策略指引(off-policyguidance),并引入混合策略优化与策略塑形机制,稳定地实现了在保持探索能力的同时高效吸收强者经验。在六项数学竞赛级基准测试中,LUFFY显著超越现有Zero-RL方法,平均提升+7.0分,并在分布外任务中展现出优异的泛化能力,为通用推理模型训练提供了新思路。
直播预告:本次直播将围绕“即学即用”RL方法的核心思想进行详细讲解,结合LUFFY框架的创新与实验成果,展示如何突破传统RL局限,提升大模型推理效率。欢迎大家准时参加,我们将深入探讨相关技术与实际应用。
该工作一经发布,便登上HuggingFace社区的DailyPapers热榜第一,获得众多研究者点赞认可。
在大推理模型(largereasoningmodels)学习复杂推理技能的过程中,最近的一系列研究工作主要尝试了两种策略:一是模仿学习(例如SFT),让模型去学习强大神经模型或人类专家的推理示范;二是强化学习(尤其是zero-RL范式),让模型通过与环境的交互自行摸索解决问题的策略。前者侧重从强者策略”学“习,后者鼓励在环境中历”练“。然而,两种策略各有其无法规避的弊端:
SFT”只学不练“:如果模型只是模仿强者的解题步骤(如直接用专家轨迹进行监督微调),它或许能快速取得不错的表现,但很可能只是照猫画虎地套用了示范中的模式。一旦遇到超出示范分布的新问题,它往往难以举一反三,暴露出泛化能力的不足[1,2]。
zero-RL”只练不学“:另一种极端下,模型完全依赖自身的试错来提升推理能力。然而,该策略受制于模型本身能力,闭门造车,很难在推理行为上产生质的飞跃。最近也有研究[3,4]表明,该范式更多地是放大模型在预训练阶段学习到的行为,并没有获取额外的推理能力。
显然,“只学不练”和“只练不学”都无法让推理模型充分挖掘潜力。那么有没有办法让模型既能借鉴高手经验,又能保持自身探索,兼顾两方面的优点呢?这正是研究者们一直思考的问题。最近,上海AILab联合西湖大学、南京大学和香港中文大学提出了一种全新的大模型推理强化学习范式,取名为LUFFY(LearningtoreasonUnderoFF-policYguidance),其核心理念在于从更优策略中汲取推理知识,并即时融入自身推理实践之中,从而实现真正意义上的“边学边练,学以致用”。
LUFFY的名字来源于“离策略(off-policy)指导下学习推理”。它所倡导的“边学边练”范式,指的是模型能够一边向更强的老师学习,一边立即把学到的本领用于问题求解。在LUFFY的训练框架中(如图4所示),我们会同时利用离策略的示范轨迹和模型自身的在线演练:
一方面,LUFFY会引入来自强大外部策略的高质量推理示范(off-policytraces),例如让一个性能很强的“大师级”模型先解一道题,提供它的思考步骤。当LUFFY的模型在自己尝试某个问题时,如果陷入失败或走入死胡同,就可以参考这些离策略示范,模仿其中有效的推理步骤,相当于向高手取经。
另一方面,LUFFY并不是盲目照搬示范。它仍然让模型不断进行自主的推理尝试(on-policyrollouts),并在模型自己解对了的时候坚持让它走自己的路,给予模型自由探索的空间。
通过将这两种来源的经验融合,LUFFY实现了模仿与探索的动态平衡:模型既不会因为缺少练习而固步自封,也不会因为缺少指引而原地打转。正如作者所说,LUFFY让模型的训练过程达到了一个“即模仿又探索”的自适应平衡。
值得注意的是,实现这种平衡并非易事。如果简单地把外部示范硬塞给模型,实验表明会出现训练收敛过快甚至“熵”崩塌(EntropyCollapse)的问题。换句话说,模型可能会因为过度依赖示范而变得贪婪保守,只记住表面的套路,反而学不到深层次的推理本领。LUFFY通过一系列巧妙的技术设计,化解了这一矛盾,使“边学边练”真正奏效。
从技术实现上看,LUFFY基于强化学习算法GRPO,针对融合外部示范的挑战引入了两大关键机制:
混合策略训练:LUFFY在策略优化过程中,将离策略示范与在线轨迹相结合,形成一种混合的训练策略(Mixed-Policy)。具体来说,在每一轮更新中,模型的自身rollout生成的轨迹与来自强者的off-policy轨迹一起用于计算强化学习中的优势函数(advantage)。那些外部示范往往伴随着更高的奖励信号(因为强者解题更正确),在优势估计中提供了宝贵的信息。因此,当模型自己的解答不理想时,优化算法会倾向于学习模仿外部高奖励的示范;反之,当模型自己表现良好时,则主要依据自身轨迹来更新。这种混合策略的GRPO训练让模型能够见贤思齐,又不失去自主成长的机会。
策略塑形(PolicyShaping)与熵保持:为了避免模型对示范的生搬硬套,LUFFY引入了策略塑形机制。它通过一种正则化的重要性采样技巧,放大那些对成功至关重要但在模型当前策略下出现概率很低的行动的学习信号。简单来说,就是让模型更加关注那些它原本很少尝试、但专家解题中出现的关键步骤。这种策略塑形相当于有针对性地纠偏:既引导模型汲取高手解题的精华,又防止模型把不重要的表面模式一股脑模仿过去。同时,作者在训练中注意保持模型决策的熵值(entropy),避免策略过早变得单一僵化。这意味着模型在学习示范的同时仍保有一定的随机探索成分,不会彻底放弃对新解法的尝试。最终,LUFFY的模型既能吸收示范中蕴含的巧妙思路,又能持续拓展自己的能力边界。如图5所示,策略塑形通过非线性函数,缓解了直接引入离策略示范导致的熵崩塌[5]。
通过上述技术创新,LUFFY实现了“边学边练”的有效融合:模型能够在强化学习训练的每一步,都动态地决定何时该学习别人、何时该相信自己,从而逐步习得超越其起始能力的推理技能。
LUFFY方法在多项高难度数学推理基准上取得了令人瞩目的成绩(完整数据已在GitHub项目中公开)。表1总结了在6个竞赛级别的数学推理数据集上的总体表现(底座模型为Qwen-Math-7B)。可以看到,LUFFY的平均解题准确率达到了49.6%,相较此前一系列纯强化学习方案提升了约7个百分点,刷新了这一领域的最佳水平(SOTA)。这证明将外部高手示范融入强化学习能够带来显著性能提升。
更令人惊喜的是,在更具挑战性的分布外测试中(即模型遇到超出训练分布的新题型,结果汇总如表1),LUFFY同样表现出色:平均准确率57.8%,显著超越此前系列zero-RL方法,且比纯模仿的SFT高出约10个百分点。换言之,LUFFY训练出的模型不仅在见过类型的问题上表现突出,在举一反三的能力上也胜过照搬示范的模型。
此外,如表3和4所示,LUFFY也在其他模型上展现出了有效性,例如更小的模型和指令对齐后的模型。
研究人员的分析进一步表明:LUFFY的模型在推理时能够灵活地借鉴示范,但并不会拘泥于固定模式;相比之下,传统的SFT模型更多是刻板地记忆了示范套路,这也解释了为何LUFFY在泛化性上更胜一筹。
从图7可以看出,LUFFY在生成正确解时的平均推理长度明显短于SFT,展现出更高效的推理路径。尤其在错误解的分布中,SFT倾向于陷入冗长、低效的表面推理过程,生成大量无效信息;而LUFFY则更倾向于早停错误尝试,避免无意义展开,体现了其更强的推理控制能力和路径优化能力。
从图8可见,LUFFY在不同温度下均展现出稳定且持续增长的pass@8表现,展现出优异的测试阶段探索能力。与之相比,SFT仅在低温度(接近确定性解码)下表现尚可,但在温度升高后性能反而下降,难以挖掘新的解题路径。这表明LUFFY不仅能学习已有推理模式,更具备泛化探索能力,而SFT更容易陷入“模式记忆”,缺乏动态适应性。
LUFFY所开创的“边学边练”范式,为大模型推理能力的训练提供了一条兼顾效率与效果的新路径。通过桥接“模仿学习”和“强化学习”这两种思路,LUFFY证明了离策略指导在提升模型高阶推理能力上的巨大潜力:模型可以突破自身的先天局限,吸收更强者的经验而又不失自我进化的空间。这一方法具有相当的通用性:未来,随着更强大的推理模型出现,我们完全可以将其作为“教师”融入LUFFY框架,不断提高“学生”模型的上限;同时,“边学边练”的理念也有望推广到数学之外的其它复杂推理领域,比如代码推理、科学问答等。
对于研发AI应用的工程师来说,LUFFY的思路也提供了启发:我们无需在“模仿”还是“探索”之间二选一,而是可以设计智能体一边向历史经验学习,一边在实践中创新。目前,LUFFY的代码和模型已在GitHub开源(项目地址:ElliottYan/LUFFY(https ://github.com/ElliottYan/LUFFY)),有兴趣的读者可以亲自尝试这一“边学边练”的新范式。未来,我们期待看到LUFFY在更多领域的探索和改进,持续推动推理模型迈向更通用、更智慧的推理时代。
https ://www.alphaxiv.org/abs/2504.14945欢迎大家来alphaXiv上参与讨论和反馈~
[1]SFTMemorizes,RLGeneralizes:AComparativeStudyofFoundationModelPost-training
[2]Sftorrl?anearlyinvestigationintotrainingr1-likereasoninglargevision-languagemodels
[3]Echochamber:Rlpost-trainingamplifiesbehaviorslearnedinpretraining
[4]DoesReinforcementLearningReallyIncentivizeReasoningCapacityinLLMsBeyondtheBaseModel?
[5]DAPO:AnOpen-SourceLLMReinforcementLearningSystematScale
备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群
id:DLNLPer,记得备注呦


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录