扩散语言模型扛把子LLaDA迎来新版本,数学、代码、对齐能力均提升


扩散语言模型扛把子LLaDA迎来新版本,数学、代码、对齐能力均提升

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

本文介绍的工作由中国人民大学高瓴人工智能学院李崇轩、文继荣教授团队与蚂蚁集团共同完成。朱峰琪、王榕甄、聂燊是中国人民大学高瓴人工智能学院的博士生,导师为李崇轩副教授。
该研究基于团队前期发布的8B扩散语言模型LLaDA(国内率先做到真正可用的扩散语言模型,是后续很多研究的主干基础模型),探索了扩散语言模型的偏好对齐方法,提出了方差缩减的偏好优化方法VRPO,并利用VRPO对LLaDA进行了强化对齐,推出了LLaDA1. 5。与LLaDA相比,LLaDA1. 5在数学、代码和对齐任务上取得了一致性的提升。同时,VRPO为后续扩散语言模型的对齐提供了统一的框架。
近期,扩散语言模型受到广泛关注,催生了一系列针对该领域的探索性研究,随着GeminiDiffusion的发布,这一趋势进一步加速。
然而,现有的大型扩散语言模型多采用「预训练+有监督微调」的范式,针对扩散语言模型的强化对齐进行深入研究的工作较为有限。
强化对齐对于大语言模型的指令遵循和通用任务能力至关重要。研究团队以直接偏好优化(DPO)为切入点,剖析了扩散语言模型在强化对齐时面临的关键问题,提出了方差缩减的偏好优化方法,使扩散语言模型能够实现稳定的强化对齐训练,这一原则也为后续扩散语言模型的对齐工作提供了理论基础和实践指南。
论文标题:LLaDA1. 5:Variance-ReducedPreferenceOptimizationforLargeLanguageDiffusionModels
论文链接:https ://arxiv. org/abs/2505. 19223
项目地址:https ://ml-gsai. github.io/LLaDA-1. 5-Demo/
性能表现:数学、代码、对齐任务相比LLaDA取得一致性提升
相比于LLaDA,LLaDA1. 5在数学、代码生成、对齐任务上取得了一致性的提升。
此外,LLaDA1. 5是当前最具有竞争力的扩散语言模型。与其他扩散语言模型相比,在数学任务(如GSM8K,Math)上具有竞争性优势。
相比于LLaDA,LLaDA1. 5在指令遵循能力上的提升显著:
上述指令给出了对模型的一系列要求:提出两种新型补品的名字并包含关键词「brand」,名称以双尖括号标注,先逐词复述请求,再给出答案。相比LLaDA,LLaDA1. 5遵循了全部指令。
方法介绍
该研究以直接偏好优化(DPO)为切入点,原始DPO损失基于模型对给定偏好数据对的对数似然。对于掩码扩散语言模型,难以计算精确的对数似然,使用证据下界(ELBO)近似。需要通过对时间步t和掩码数据y_t进行双重采样进行估计:
将ELBO带入DPO损失的对数似然项,可以得到基于ELBO的DPO损失估计器:
其中,红色部分为偏好估计。
在实际应用中,采用蒙特卡洛方法近似对数似然会引入DPO损失的偏差和方差,影响模型的梯度估计,进而导致训练过程不稳定,甚至影响模型对齐后的最终性能表现。
本研究首先证明了:蒙特卡洛估计引入的偏差和方差,可以被偏好估计器的方差限制;降低偏好估计器的方差可以分解为降低ELBO估计的方差,以及提高π_θ和π_ref的ELBO估计之间的相关性。据此,本研究提出并证明了以下方差缩减策略的有效性:
提高蒙特卡洛估计的采样预算;提高采样预算能够降低ELBO估计的方差。
给定总采样预算的最优分配策略;在给定总采样预算n=n_t×n_(y_t)下,当采样预算分配为采样n个时间步、每个时间步采样一个加噪样本时,ELBO估计的方差达到最小。
对偶采样策略。通过增加π_θ和π_ref所使用噪声样本之间的相关性,能够进一步降低梯度估计的方差。具体而言,在ELBO估计中,对于π_θ和π_ref,应当共享相同的偏好数据的噪声样本和拒绝数据的噪声样本。
综合上述策略,最终得到的方差缩减的偏好优化方法如下右图。对于每一个偏好数据对,在给定的采样预算n下,采样n_t=n个时间步,对于每个时间步采样1个噪声样本,并在π_θ和π_ref间共享噪声样本,以进行高效偏好估计。
总结与展望
本研究围绕扩散语言模型的偏好对齐任务,提出了方差缩减的偏好优化方法VRPO,并从理论分析与实际实验两方面系统论证了该方法在有效降低梯度估计方差、提升模型对齐效果上的优越性。基于VRPO优化的LLaDA1. 5模型,在数学推理、代码生成、模型对齐等多个任务上均实现了全面且稳定的性能提升,验证了方法的通用性和有效性。
本研究提出的方差缩减算法VRPO主要以DPO为分析对象,但所提出的方法具有普适性,可被推广应用到其他涉及ELBO估算或强化对齐的算法中,为扩散语言模型在强化对齐领域构建了统一的理论与方法框架。
©THEEND
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin. com


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录