【源头活水】5%参数比肩DeepSeek满血R1!北大“小”模型靠分合蒸馏,打破推理成本下限


【源头活水】5%参数比肩DeepSeek满血R1!北大“小”模型靠分合蒸馏,打破推理成本下限

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注!
只用5%的参数,数学和代码能力竟然超越满血DeepSeek?
北京大学杨仝教授团队近期发布了其在高效大型语言模型研究方向的一项新成果——FairyR1-32B模型。
该模型基于DeepSeek-R1-Distill-Qwen-32B基座,通过结合微调与模型合并技术构建。
研究探索了在参数量大幅减少的情况下,模型在特定任务上实现与更大模型相当甚至更优性能的可能性。
以上模型已在Huggingface开源。
模型地址:https ://huggingface. co/PKU-DS-LAB/FairyR1-32B
FairyR1-32B模型是在团队前期TinyR1工作基础上进行的进一步探索,沿用了“分合蒸馏”的研究思路,提出了多种改进方法,包括自我合并、多教师交叉蒸馏、轻蒸馏等方法,并在数据处理进行了优化,模型精度有了显著提升。
本次工作重点改进了蒸馏数据的构建流程,对来源于AI-MO/NuminaMath-1. 5(数学)和open-thoughts/OpenThoughts-114k(代码)等数据集的原始数据,通过多个“教师模型”生成答案,随后对问答数据进行精心筛选、结构调整与思维链优化,并进行多阶段筛选。
筛选过程包括基于答案的正确性验证(针对数学数据),以及基于长度的筛选(数学数据保留2k-8ktokens范围,代码数据保留4k-8ktokens范围),最终构建了更具针对性的约6. 6k条数学数据和约3.8k条代码数据用于训练。
在模型结构方面,研究团队尝试训练两个领域(数学和代码)的专业模型进行合并,旨在进一步优化流程和资源消耗。
这两个专业模型在一致的训练参数下(例如相同的学习率和批次大小)独立训练约5个周期后,利用AcreeFusion工具进行了合并。

基准测试
DeepSeek-R1-671B(满血版)
DeepSeek-R1-Distill-Qwen-32B
FairyR1-32B(北京大学)
数学能力AIME2024
79. 8
72. 6
80. 4
数学能力AIME2025
70. 0
52. 9
75. 6
代码能力LiveCodeBench
65. 9
57. 2
67. 7
科学问答能力GPQA-Diamond
71. 5
62. 1
59. 6

这些结果表明,FairyR1在采用DeepSeek-R1-Distill-Qwen-32B基座并经过特定技术处理后,能够在约5%参数量的情况下,在数理和编程等领域实现与大型模型相当或略优的性能水平,但在科学等其他领域可能存在差距。
这项工作探索了通过优化的数据处理和模型融合技术,在保证特定任务性能的前提下,大幅降低模型规模和潜在推理成本的可能性。
北京大学杨仝教授团队表示:“FairyR1-32B模型是我们探索高效大型语言模型技术路线的阶段性成果。通过对蒸馏和合并方法的改进,我们初步验证了在有限资源下实现高性能模型的可行性。”
团队成员:李旺、周俊廷、刘文睿、姚一伦、王融乐、杨仝
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
收藏,分享、在看,给个三连击呗!


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录