告别数据「噪音」,UCSD大模型推理新方法DreamPRM充当「信号放大器」,登顶MathVista测评榜


告别数据「噪音」,UCSD大模型推理新方法DreamPRM充当「信号放大器」,登顶MathVista测评榜

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

使用过程奖励模型(PRM)强化大语言模型的推理能力已在纯文本任务中取得显著成果,但将过程奖励模型扩展至多模态大语言模型(MLLMs)时,面临两大难题:
由于多模态输入(图像+文本)构成高维连续与离散信号的混合空间,训练数据与测试数据的分布偏移(DistributionShift)远超纯文本场景,导致一般过程奖励模型泛化能力显著下降。
数据集质量失衡。现有开源多模态推理数据集存在大量低价值样本,如冗余模态与低难度问题。若直接用于训练,噪声数据会稀释过程奖励模型对关键推理步骤(如跨模态逻辑衔接)的监督信号。
针对上述问题,我们通过双层优化框架,将数据域权重(DomainWeights)作为可学习参数,动态抑制低质量数据域的影响,同时强化高信息密度数据域(如需要多步跨模态推理的M3CoT数据集)的贡献,实现数据质量与覆盖率的理想平衡。
论文标题:DreamPRM:Domain-ReweightedProcessRewardModelforMultimodalReasoning
论文地址:https ://arxiv. org/abs/2505. 20241v2
代码地址:https ://github. com/coder-qicao/DreamPRM
DreamPRM方法在MathVista数学推理排行榜上荣登榜首。DreamPRM以多层级优化为核心,作为一个与具体大语言模型无关的通用框架,可与任何多模态大语言模型无缝集成,显著提升其数学推理能力。
通过解决数据质量不均衡问题,DreamPRM大幅提升了多模态过程奖励模型的性能。
DreamPRM双层优化框架
技术核心:双层优化机制详解
DreamPRM的核心创新在于将过程奖励模型的训练过程构建为一个可微分的双层优化问题,通过动态调整数据域权重来解决多模态推理中的分布偏移和质量失衡问题。该框架包含两个紧密耦合的优化阶段,共同驱动模型性能的提升。
在下层优化阶段,系统同时在15个多样化训练域上进行PRM参数训练。每个数据域(如科学问答、几何推理等)都被赋予一个动态权重以反映不同数据域对总体损失函数的贡献程度。具体实现中,系统会计算每个域的蒙特卡洛监督信号:
对于给定的中间推理步骤,通过多次采样补全结果并统计正确率,生成对当前步骤质量的概率估计。下层优化使用域加权的过程奖励模型输出与正确率监督的MSE损失更新过程奖励模型的参数:
在上层优化阶段,系统使用独立于下层优化训练资料的基于MMMU筛选的元数据集作为训练数据。这个精心构建的元数据集覆盖30个学科183个子领域,能够真实且全面地模拟PRM的推理场景以评估其泛化能力。上层优化阶段通过最小化聚合后的过程评价与最终答案准确与否的差异,反向传播误差并更新各个数据域的权重。
这个双层架构创造了一个自适应的正反馈循环:高质量的推理数据域(如需要复杂跨模态推理的M3CoT)会逐渐获得更高的权重,而包含大量简单样本的域(如AI2D)的权重则会下降。整个优化过程展现出良好的收敛特性,初始设为1. 0的域权重会在训练中自然分化,最终形成与数据域信息密度高度相关的权重分布。
主要性能表现
领域重加权优势显著:DreamPRM在所有五项基准测试中稳定超越其他PRM方法,相比无数据选择的原始PRM提升2-3%。其自动学习的域权重策略优于人工设计的启发式规则(如s1-PRM和CaR-PRM),证明数据驱动的优化更有效。
小模型超越大模型:DreamPRM使仅80亿参数的InternVL-2. 5-8B-MPO模型在多数基准上表现优于大型闭源模型(如GPT-4v和Gemini-1. 5),展现了强大的推理能力提升。
细粒度评估带来提升:过程监督模型通过逐步评分机制超越其他测试时优化方法(如自洽性校验),验证了细粒度评估的关键作用。
规模扩展实验
DreamPRM的性能随着候选推理链(CoT)数量的增加而稳定提升。如图所示,当CoT数量从2条增至8条时,DreamPRM在全部五个基准测试上的准确率均持续提高。
DreamPRM能无缝迁移到更强的多模态大模型上。如图所示,当应用于GPT-4. 1-mini和o4-mini等更强模型时,在MathVista基准上的准确率均有提升,充分证明了DreamPRM的泛化能力。
学习到的数据域权重
最终学习到的数据域权重范围为0. 55至1.49,其中M3CoT和FigureQA获得最高权重(约1. 5),而AI2D和IconQA权重较低(小于0. 8)。这种权重分配模式有效提升了PRM性能,同时证实了不同数据集间存在显著的质量差异。
DreamPRM通过创新的双层优化机制,成功解决了多模态过程奖励模型训练中数据质量失衡和分布偏移的难题。双层优化框架自动学习各数据域的最优权重,使DreamPRM在五项基准测试中全面超越一般PRM方法,尤其在高难度数学推理任务上表现突出。
实验表明,该方法不仅能提升基础模型4%的平均性能,还可无缝迁移至o4-mini等新模型,且随着候选推理链数量增加持续改善结果。DreamPRM的细粒度过程监督和可解释的权重分配,为多模态过程奖励模型的高效训练提供了新范式。
©THEEND
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin. com


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录