从DeepSeek->Kimi->豆包->Qwen3,看Reasoning model之路
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
作者:假如给我一只AIhttps ://zhuanlan.zhihu.com/p/1900688422869405916
自DeepSeek-R1发布以来,Reasoningmodel(推理模型)可谓是大火。同时,LLM领域近期也发生了三件事:
•字节团队发布Seed-Thinking-v1.5技术报告;
•清华&上交团队在paper中提出:RL并不能真正提升LLM的推理能力;
•具备Reasoning能力的Qwen3问世,号称思考更深、行动更快。
既然推理模型如此重要,笔者本次就针对几款主流的模型做一个总结,主要回答两个问题:
•RL能否提升LLM的推理能力?
•如何让LLM具备Reasoning能力?
论文指出:评估了Instruct和RL模型在两个基准测试上的Pass@K和Maj@K准确率。如图7所示,RL提升了Maj@K的性能,但没有提升Pass@K。这一发现表明,RL通过使模型的输出分布更加稳健来提升整体性能,换句话说,改进似乎是通过将正确答案从TopK中提升而实现的,而不是通过提升模型的基础推理能力。类似地,在推理任务中发现了SFT模型中的误对齐问题,并表明通过一系列偏好对齐策略可以提升SFT模型的推理性能。
在DeepSeek-Math的实验结果如下图1-1(包括Maj@K和Pass@K的定义):
论文指出:RL训练模型生成的推理路径已包含在基础模型的采样分布中,这表明RL训练模型中表现出的大多数推理能力已由基础模型获得。RL训练通过偏向更可能产生奖励的路径来提高性能,从而更高效地采样正确的响应。但这也限制了其探索能力,导致推理能力边界比基础模型更窄。
对比可知,该paper的回答和DeepSeek的回答是相似的,即RL训练模型中表现出的大多数推理能力已由基础模型获得。但该paper给出了更多的实验(细节可参考原文),主要包括:
•验证基础模型中存在推理模式
•验证蒸馏(如DeepSeek-R1-Distill-Qwen-7B模型)可以扩展推理边界
•对比不同RL算法(如PPO、GRPO、DAPO等)的效果
Seed-Thinking-v1.5是一种MoE(混合专家)模型,规模相对较小:总参数200B&激活参数20B。该团队为了开发一个高质量的推理模型,在三个关键点投入了大量精力:训练数据、RL算法、RLinfrastructure(本文不展开)。
DeepSeek-R1的训练流程,如下:
整体分为两大步:
1)获取DeepSeek-R1-Zero:通过”纯”强化学习(无任何监督数据,Prompt模板见下图1-1)去生成一个新模型,即R1-Zero,然后用它生产几千+带CoT的冷启动数据,作为后续R1模型的燃料之一。
2)获取DeepSeek-R1:主要包括四个核心训练阶段(阶段1、2、3、4)和2个数据准备阶段(阶段0、2.5):
•阶段0:即获取DeepSeek-R1-Zero。
•阶段1:基于R1-Zero的几千+数据,在V3-Base上执行第一次SFT,获得基本的格式遵循和反思验证的能力。
•阶段2:执行第一次强化学习,加强模型在数学、代码、逻辑推理等领域的推理能力。
•阶段2.5:基于阶段2的模型,获取领域更广泛的600K数据;基于V3-Base,获取包括CoT的非推理数据200K。
•阶段3:基于获取的800K数据,在V3-Base上执行第二次SFT,增强模型的通用性。
•阶段4:执行第二次强化学习,进一步对齐人类偏好,提升模型的可用性和无害性,并精炼推理能力。
因此,模型在四个阶段都在努力注入Reasoning能力。
这是一个多模态模型,观感上,其数据整理、奖励模型、SFT训练、RL训练和Seed-Thinking-v1.5相似,但仍然有特殊之处,需要额外了解的如下:
作者明确指出,高质量的RL提示集具有以下三个关键特性:
•多样覆盖(DiverseCoverage):prompt涵盖全面,如STEM、编码和一般推理,以增强模型在不同领域的广泛适用性。
•平衡难度(BalancedDifficulty):prompt集合应包括易、中、难问题的均衡分布,以促进逐步学习,防止过拟合到特定复杂度水平。
•准确可评估性(AccurateEvaluability):允许verifier进行客观和可靠的评估,确保模型性能基于正确推理而非表面模式或随机猜测。
图2-7:Kimi-K1.5的采样策略3)RL算法(onlinepolicymirrordecent)
关于为什么要删除value模型,作者考虑了2个原因:
•1)设想模型生成了一个部分链式思维(z1,z2,…,zt),有两个潜在的下一个推理步骤:zt+1和zt+1′。假设zt+1直接导致正确答案,而zt+1′包含一些错误。如果有一个value函数,它会指示zt+1比zt+1′具有更高的价值。根据标准的信用分配原则,选择zt+1′将被惩罚,因为它相对于当前策略具有负优势。然而,探索zt+1′对于训练模型生成长链式思维非常有价值。
•2)降低RL的复杂度。
为了开发既能进行逐步Reasoning又能快速响应的混合模型,实现了一个四阶段训练流程(见图2-10):
•第1阶段——LongCoT冷启动:使用各种LongCoT数据对模型进行微调,涵盖数学、编程、逻辑推理和STEM问题等各种任务和领域。此过程旨在使模型具备基本的推理能力。
•第2阶段——基于推理的RL:这一阶段专注扩展强化学习的计算资源,利用基于规则的奖励来增强模型的探索和利用能力。
•第3阶段——Thinking模式融合:通过结合LongCoT数据和常用的指令fine-tuning数据对Thinking模型进行微调,将非思考能力融入到Thinking模型中。这些数据由第2阶段的增强型Thinking模型生成,确保推理能力与快速响应能力的无缝融合。
•第4阶段——通用RL:将强化学习应用于20多个通用领域任务,以进一步增强模型的通用能力并纠正不良行为。这些任务包括指令遵循、格式遵循和Agent能力等。
一个优秀的Reasoningmodel诞生,需要关注以下几点:
•Base模型够强(如DeepSeek-V3)
•数据需要覆盖完整&高质量(如Seed-Thinking-v1.5和Kimi-K1.5)
•预训练中,可以在最后一个阶段就加入推理数据
•奖励模型非常重要,如果能够针对性对CoT打分则更佳
•后训练中,在SFT和RL过程均加入推理数据
往期推荐
LLM行业科普和择业建议:选基座or应用?
Qwen3如何实现快慢混合思考、可启动关闭
不微调、不蒸馏、不掉分解决R1思维链过长(细节版)
R1的一些认知:4个经典误区
尝试基于0.5B小模型复现DeepSeek-R1的思维链
从DeepSeekR1论文深入理解推理型大模型
复现DeepSeekZero的RL调参经验
DeepseekR1Zero复现全过程记录
开源社区DeepSeekR1最新复现进展汇总
进入大模型技术群,备注:进群。
都看到这了,点个关注再走吧🧐~