更长的推理链反而导致更多幻觉,MLLMs 幻觉解法仅「抄作业」还不够?


更长的推理链反而导致更多幻觉,MLLMs 幻觉解法仅「抄作业」还不够?

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

机器之心PRO·会员通讯Week27
—本周为您解读②个值得细品的AI&Robotics业内要事—
1. 更长的推理链反而导致更多幻觉,MLLMs幻觉解法仅「抄作业」还不够?
更长的推理链为何反而使MLLMs产生更加严重的幻觉问题?相比于大语言模型的事实性错误和常识违背,MLLMs在视觉任务上「多」出了哪些幻觉?以往针对LLMs幻觉的方法,MLLMs能否直接\“抄作业\“?为何视觉编码器的「进化」对解决MLLMs幻觉问题极为重要?RAG方法对提升多模态生成的可信度是否依然奏效?
2.「2025AI实战手册」,年收入破亿的AI公司都在干什么?
ICONIQ投的AI公司发展如何了?赚到钱的AI公司都在干什么?AI原生公司的优势都有哪些?年收入破亿的公司如何开发AI产品?以后的AI产品会怎么收费?AI公司对人才的需求在如何变化?AI公司也不爱用AI?
本期完整版通讯含2项专题解读+27项AI&Robotics赛道要事速递,其中技术方面8项,国内方面7项,国外方面12项。
本期通讯总计23559字,可免费试读至8%
消耗99微信豆即可兑换完整本期解读(约合人民币9. 9元)
引言:近日,斯坦福大学、UCSB及USSC的学者通过注意力分析发现,与LLMs不同的是,随着思维链(CoT)生成内容的变长,更长的推理链反而使多模态大模型(MLLMs)产生更强的幻觉。
1、测试时计算使得多模态大型语言模型能够生成扩展的推理链,然而斯坦福大学、UCSB及USSC的学者观察到这种改进的推理能力常常伴随着幻觉的增加。[1-1]
①随着生成内容的变长,模型倾向于偏离图像内容,更多地依赖语言先验。
②通过注意力分析,研究团队发现更长的推理链会减少对视觉输入的关注,从而导致幻觉。
2、相较于传统大语言模型(LLMs)中对事实性错误的讨论,多模态模型(MLLMs)幻觉不仅涉及语言生成的偏差,更体现为跨模态的语义失配,即模型「看图说话」时对图像理解出现偏差,生成内容偏离甚至虚构了视觉细节。
①在大语言模型中,幻觉主要被定义为输出内容与现实事实不符,例如虚构人物、伪造引用、逻辑冲突等。其根源多来自语言建模的泛化机制和训练语料中的偏误。
表:LLMs和MLLMs幻觉对照表[1-1]-[1-18]
3、为何这些幻觉在多模态大模型中频发?其主要原因在于当前主流的多模态架构在结构设计和训练机制上均存在潜在失衡。
4、一方面,多模态大模型通常采用「视觉编码器+接口模块+语言模型」的模块化结构,主流接口包括Cross-Attention(交叉注意力)机制和视觉投影(ProjectionLayer)机制。[1-2]
①Cross-Attention(交叉注意力)机制如MiniGPT-4中的Q-Former,使用可学习的查询向量来捕捉图像特征。
②视觉投影(ProjectionLayer)机制,如LLaVA中通过线性映射或MLP将视觉特征压缩映射至语言空间。
5、尽管这些接口在一定程度上实现了模态间的信息传递,但由于视觉特征被压缩为有限的token,模型极易发生「注意力漂移」(AttentionDrift)现象。
①即在生成过程中,模型的自注意力机制更倾向于关注已有的语言token,而非图像输入。
②这种「语言主导」现象,在视觉挑战性较高(遮挡、模糊、罕见物体)或语言先验极强的场景中较为普遍。
6、另一方面,语言模型规模远大于视觉编码器(通常为CLIP),加剧了语言模态对最终输出的支配倾向。
①模型在「香蕉是什么颜色」这类问题上,可能更依赖其内部知识(即黄色)而非图像中的实际颜色(红色),造成输出事实与图像直接冲突。
7、在训练机制上,目前多模态仍沿用大语言模型中的「下一个token预测」作为核心训练损失(AutoregressiveLoss),这种token级别监督方式难以捕捉视觉内容的空间结构与跨模态一致性,尤其缺乏对整句语义合理性或跨模态对齐的约束。


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录