发布时间: 2025-6-25
大型视觉语言模型(LVLMs)在图像理解和多模态推理方面取得了显著进展,但其生成的文本常出现与图像内容不符的“幻觉”问题,这成为制约其实际应用的重要瓶颈。
目前的主流方法主要通过对齐训练或输出层分布修正来缓解LVLMs的幻觉问题,但这些方法仅作用于模型的最终输出阶段,未能深入干预其内部表征和生成机制,因此难以实现高效且精准的幻觉抑制。
中科院自动化所联合新加坡国立大学、东南大学等团队提出了一种高效的解决方案——VHR,该技术通过独特的“视觉神经增强”机制,直接放大模型中的视觉关键注意力头输出,即可显著降低模型的幻觉现象。
大型视觉语言模型(LVLMs)能够结合视觉和语言信息生成流畅的文本回答,但其输出常因过度依赖语言先验知识而非图像真实内容,导致事实性错误。 在图1中,我们通过对照实验揭示语言先验与幻觉现象之间的关联。当给定图像并提示模型「请详细描述该图像」时,模型生成的描述中错误地包含「椅子」和「杯子」这类图像中未出现的实体,呈现出典型的幻觉表现。
为了验证这种幻觉是否源于语言偏好,我们移除原始图像,重新提示模型根据此前生成的正确描述「图中有一张木桌,桌上有一个花瓶」进行补全。结果显示,模型补全的内容与之前的幻觉部分显著重叠,这表明模型并非基于视觉依据进行推理,而是系统性地依赖语言共现模式来生成内容。
这一现象证实了LVLMs产生的幻觉并非随机错误,而是受到其内部语言建模偏好的系统性影响。
图1. 揭示LVLMs中幻觉现象与语言偏好关联的示例。当幻觉发生时(对话1),我们移除图像输入并提示模型补全描述(对话2)。其输出内容与幻觉生成部分高度相似。
当前主流解决方案(如对齐训练、解码优化)主要通过对输出层的结果进行干预来缓解幻觉问题。这类"末端干预"方法虽然简单有效,但未能触及模型产生幻觉的根本原因——即注意力机制内部的不平衡性。最新研究发现:
这种功能分化形成了潜在的风险,可能导致模型过度依赖参数化知识而忽视视觉证据。
为量化这一现象,我们提出视觉感知头散度(VHD)——该指标能测量每个注意力头对视觉输入的响应强度。通过VHD分析,我们发现模型中的少数注意力头对视觉信息表现出显著敏感性,而大多数头则更依赖于语言规律。这很可能是多模态模型经常产生幻觉的关键原因之一。
基于此,我们开发了视觉感知头增强(VHR)技术。该方法通过识别并强化对视觉信息敏感的注意力头的输出,有效减少了模型对语言先验的依赖,从而显著降低了幻觉现象。实验证明,VHR在多个基准测试中均优于现有方法,同时保持了高效性,几乎不增加额外的时间开销。
我们首先提出VHD指标,用于量化注意力头对视觉信息的敏感度。VHD旨在衡量每个注意力头在生成过程中对视觉上下文的依赖程度。具体而言,对于第 层的第 个注意力头,其VHD得分计算如下:
其中, 为欧式距离, 表示注意力头的输出, 和 分别代表视觉和文本输入。VHD通过对比有无图像输入时注意力头输出的差异,量化其对视觉信息的敏感度。实验发现,仅有少数注意力头表现出高VHD值,表明模型内部存在视觉感知与语言偏好头的显著分化。
进一步,我们提出 Token-VHD(T-VHD)指标,聚合每层中VHD得分最高的 个头,以评估生成每个词时模型对视觉信息的依赖程度:
统计表明,幻觉词通常对应较低的T-VHD值,验证了语言偏好是幻觉的主要诱因之一。
基于VHD的分析,VHR通过以下步骤动态强化视觉敏感的注意力头:
1. 异常VHD过滤:为避免强化因视觉缺失而异常激活的注意力头,对满足以下条件的VHD得分置零:
其中TAl,i衡量无视觉输入时注意力头的激活强度。
2.注意力头选择与强化:每层选择VHD得分前50%的注意力头,将其输出缩放a倍。
其中Hl为高VHD注意力头集合。此操作通过重定向注意力模块的输出方向,增强视觉上下文的贡献。
3.分层渐进式增强:为避免层间干扰,采用逐层强化策略,并在首步生成时确定每层的关键注意力头。
为了评估 VHR 方法的有效性,我们在CHAIR、POPE和LLaVABench三个基准及多个大模型上与基线方法对比了效果。部分定量的实验结果如下表所示。更多结果烦请移步我们的文章或代码。
表1. MSCOCO数据集上的CHAIR评估结果
表2. POPE数据集上的F1分数结果;图6. 不同方法的推理时间对比
此外,我们提出的SSL方法从语义引导的角度出发,通过分析模型内部表征空间来缓解LVLMs的幻觉问题。该方法受到稀疏自编码器(SAEs)在LLMs语义表征研究中成功应用的启发,将其拓展到LVLMs领域:首先利用SAE识别出"幻觉"和"真实"两种语义方向,然后在模型特定层进行针对性干预。具体而言,对于视觉信息融合阶段,我们注入真实语义方向以增强视觉表示的忠实性;对于语言生成阶段,则通过适度抑制模型在幻觉语义方向上的投影,减少幻觉内容的产生。 值得注意的是,虽然本研究使用在LLaVA-Next-8b模型上训练的SAE,但其识别的语义方向在其他架构的LVLMs(如LLaVA1.5-7b,InstructBLIP-7b)中也起到了缓解幻觉的作用,展现出良好的跨模型迁移能力。这一发现不仅验证了SAE在LVLM语义解析中的普适性价值,更为跨模型幻觉缓解研究开辟了新路径。
非常推荐对SAE感兴趣的读者去阅读 SSL 的原文:https://arxiv.org/pdf/2505.16146 。
论文标题:
Steering LVLMs via Sparse Autoencoder for Hallucination Mitigation
代码链接:
https://arxiv.org/abs/2505.16146