当前位置: 首页 > java >正文

视觉语言模型的“视而不见“

这项研究发现,号称能“看图说话”的视觉语言模型(VLMs),在处理需要真正“看”懂图片的纯视觉任务(如判断深度、找对应点、认物体材质等)时,表现远不如它们自己内部的“眼睛”(视觉编码器),甚至接近瞎猜的水平!问题不在于“眼睛”不好,而在于负责“说话”的语言模型(LLM)不会好好用“眼睛”看到的信息,还总带着自己的语言偏见。


  1. 研究背景:VLMs 是什么?

    • 一个AI有一只厉害的“眼睛”(视觉编码器,如 DINOv2, CLIP),负责看懂图片;还有一个“大脑”(大型语言模型 LLM),负责理解语言和生成文字。
    • 视觉语言模型(VLMs) 就是把这两者结合起来,目标是让AI既能看懂图又能理解文字描述,并能回答关于图片的问题(比如“图片里有什么?”,“狗在追什么?”)。
    • 大家都以为这种结合很完美:视觉编码器提供视觉信息,LLM 负责理解和表达。
  2. 惊人发现:VLMs “视而不见”

    • 研究人员想测试VLMs的“视力”到底有多好,测试的不是常识问答,而是纯视觉任务
      • 深度估计: 图片里哪个地方离我们近,哪个地方远?
      • 对应关系: 两张相似图片里,同一个点在另一张图的哪里?(比如左右眼看到的同一个点)
      • 物体属性: 物体表面是光滑的还是粗糙的(纹理)?物体是方的还是圆的(形状)?
      • 艺术风格: 这张画是什么风格的?
    • 测试方法对比:
      • 方法A (直接问“眼睛”): 绕过LLM,直接用技术手段“读取”视觉编码器内部对图片的表示(特征),然后用简单的分类器判断任务结果。这代表了视觉编码器本身的能力上限
      • 方法B (问整个VLM): 像正常用户一样,用文字提问VLM(例如:“图片A的点X在图片B的对应点是A, B, C, D中的哪一个?”),让它输出文字答案。
    • 震撼结果:
      • 视觉编码器(“眼睛”)自己看时表现超棒! 在深度估计等任务上准确率接近90%(远超随机猜测)。
      • 一旦让整个VLM(“眼睛”+“大脑”)来回答,表现暴跌! 很多任务上准确率掉到接近随机瞎猜(比如25%或33%,取决于选项数),甚至比瞎猜还差(因为有偏见)。
      • 下降幅度巨大: 从“眼睛”的优异表现到VLM的糟糕表现,差距非常显著。最强“眼睛”DINOv2 搭配的VLM,表现反而不如一些较弱的“眼睛”搭配的VLM。
    • 结论: VLMs在处理这些需要精确视觉理解的任务时,严重浪费了视觉编码器提供的高质量信息,表现得像“视而不见”。
  3. 刨根问底:为什么“视而不见”?问题出在哪?
    研究人员做了大量分析,排除了几种可能,锁定了核心原因:

    • 原因1:视觉信息在传递中丢失/损坏了?(被排除)
      • 检查点: 他们检查了信息从“眼睛”(视觉编码器)出来后,经过连接器(投影层)到“大脑”(LLM)的每一站。
      • 发现: 视觉信息在投影层和LLM的早期层依然保持得很好!用方法A去“读”这些中间层的表示,依然能很好解决视觉任务。
      • 结论: 问题不是视觉信息在传递过程中被破坏或丢失了。信息还在,LLM能接触到。
    • 原因2:问题问得不对?(部分影响,非主因)
      • 测试: 尝试微调提问方式(提示调整),在问题前面加几个可学习的“提示词”嵌入,希望能引导VLM更好地理解任务。
      • 发现: 微调提示词能带来一点点提升,但效果非常有限,离视觉编码器本身的水平差得远。换不同问法(提示工程)也难以显著改善。
      • 结论: 提示方式有影响,但不是性能暴跌的核心瓶颈
    • 核心原因:LLM 不会用/不想用“眼睛”看,还自带“语言偏见”
      • “不会用/不想用”:
        • 分析发现,即使高质量视觉信息就在LLM面前,LLM没有有效地利用这些信息来完成纯视觉任务。
        • 关键实验: 在少量数据上微调VLM的不同部分:
          • 微调“眼睛”(ViT)或连接器(投影层) -> 效果提升很小。
          • 微调“大脑”(LLM) -> 效果提升巨大!
        • 这说明,LLM本身是瓶颈。它没学会如何根据视觉信息精准回答这类视觉问题。
      • “自带偏见”:
        • “盲测”实验: 不给VLM看任何图片(输入空白图),只让它回答选择题。
        • 发现: 这种情况下VLM的答案分布(偏向选某些选项),和有图片时VLM给出的答案分布高度相似
        • 这证明,VLMs在回答这类问题时,很大程度上忽略了图片内容,而是依赖于LLM内部固有的语言偏好和偏见(比如更倾向于选某个顺眼的选项)。
      • 注意力机制佐证: 微调LLM后,LLM在决策时更关注图片中与问题相关的关键区域(如需要找对应的点)。微调前,它的注意力是分散或不相关的。
  4. 重要澄清:不是“眼睛”的错!

    • 过去一些研究认为VLMs视觉能力弱是因为视觉编码器不够好(比如CLIP不如DINOv2看空间关系准),并建议用更强的编码器或融合多个编码器。
    • 这项研究颠覆了这种看法:
      • 最强的视觉编码器(DINOv2)在独立测试中表现最好。
      • 但把它放进VLM后,搭配LLM的整体表现反而下降得最多,导致在VLM排名中不再是第一。
      • 这说明,视觉编码器本身能力很强,问题出在LLM如何利用它。单纯升级“眼睛”不能根本解决VLM“视而不见”的问题。
  5. 研究的启示与影响:

    • 对VLMs能力的重新认识: VLMs在需要语言知识或常识的任务上可能很出色,但在需要精确实时视觉感知的任务上表现可能极差。不能简单认为VLMs继承了视觉编码器的所有视觉能力。
    • 诊断VLM问题的新视角: 当VLM表现不佳时,不能只归咎于视觉部分。要重点检查LLM是否有效利用了视觉信息,以及是否存在语言偏见。
    • 未来改进方向:
      • 提升LLM的视觉理解能力: 如何让LLM更好地“看懂”并利用视觉信息是关键(微调LLM有效)。可能需要设计新的架构或训练方法,让LLM学会真正依赖视觉输入来做视觉判断。
      • 缓解语言偏见: 需要机制让LLM在视觉任务中抑制其固有的语言偏好,强制其基于图像作答。
      • 谨慎评估视觉能力: 评估视觉编码器时,避免依赖VLM问答作为指标(结果不可靠且有误导性)。应使用更直接的视觉评估方法。
    • 对VLM应用的警示: 在涉及精确视觉感知的应用场景(如机器人视觉引导、医学影像初步分析、工业质检等),直接使用现成的VLMs(如 LLaVA, Qwen-VL)进行视觉问答可能不可靠。需要针对性优化或考虑替代方案。

这项研究揭示了一个VLMs的“阿喀琉斯之踵”:它们的语言大脑(LLM)在处理纯视觉任务时,既不善于利用高质量的眼睛(视觉编码器)看到的信息,又深受自身语言偏见的影响,导致在需要真正“看”图的场景下表现糟糕,远不如单独测试“眼睛”的能力。问题的核心在于LLM与视觉信息的整合方式,而非视觉编码器本身。 这项研究为理解和改进VLMs的视觉能力提供了关键诊断和方向。

https://mp.weixin.qq.com/s/ghexA89mk7KLdO0UEGOB2w
https://www.arxiv.org/abs/2506.08008

“阿喀琉斯之踵”(Achilles’ Heel)是一个源自希腊神话的著名典故,用来比喻一个看似强大的人或事物身上存在致命的弱点或缺陷

故事背景(神话来源)
  • 阿喀琉斯是谁?
    他是希腊神话中半人半神的英雄,海洋女神忒提斯(Thetis)与凡人国王珀琉斯(Peleus)的儿子。他英勇善战,参与了特洛伊战争,是希腊联军中最强大的战士。

  • “踵”为什么是弱点?
    阿喀琉斯出生时,母亲忒提斯握着他的脚踵将他浸入冥河(Styx)的圣水中,使他全身刀枪不入。唯独被手握住的脚踵没有沾到圣水,成了他唯一的致命弱点
    ➠ 特洛伊战争中,阿喀琉斯所向无敌,但最终被敌人帕里斯(Paris)一箭射中脚踵而死。

如今,“阿喀琉斯之踵”被广泛用于描述:

  1. 强大个体/系统的隐蔽缺陷
    (例如:某科技公司市场占有率极高,但过度依赖单一供应商是其“阿喀琉斯之踵”)
  2. 无法克服的关键短板
    (例如:一名运动员身体素质顶尖,但心理抗压能力是“阿喀琉斯之踵”)

用“阿喀琉斯之踵”形容视觉语言模型(VLMs)的缺陷:

  • 强大之处:VLMs融合了顶尖的视觉编码器(“眼睛”)和语言模型(“大脑”),整体能力强劲。
  • 致命弱点:语言模型(LLM)无法有效利用视觉信息,反而依赖语言偏见,导致在纯视觉任务中表现崩塌——如同阿喀琉斯被一支射中脚踵的箭摧毁。

环保组织指出:“快速工业化是发展中国家的经济引擎,但污染治理的缺失正成为其阿喀琉斯之踵。” (比喻:工业化虽强,但环境问题是致命短板)

“阿喀琉斯之踵” = “再强大的存在,也可能因一个微小缺陷而崩溃”。这个比喻生动提醒我们:优势中可能潜藏危机,完美背后或有致命软肋。

http://www.xdnf.cn/news/13871.html

相关文章:

  • 【Linux仓库】进程状态【进程·叁】
  • 三步走实现嵌入式硬件与软件开发
  • 芯科科技携最新Matter演示和参考应用精彩亮相Matter开放日和开发者大会
  • Axios面试常见问题详解
  • ELK1日志分析系统
  • GD32 MCU的真随机数发生器(TRNG)
  • 商业智能BI 企业提高数据质量,应该怎样保障数据治理有效性
  • HTTP 协议各个主要版本的功能特点、核心原理、使用场景总结
  • 算法学习的规范性和可持续性
  • 关于亚马逊WOOT周末大促
  • 解锁嵌入式Linux开发:从入门到精通的通关秘籍
  • 第二节 基础核心概念-any、unknown、never的区别
  • 江苏艾立泰:跨国循环经济破解塑料行业环保困局
  • 网络编程之HTML语言基础
  • 五、PyQt6图形用户界面
  • 产品架构图详解:从概念分层到绘制方法详解(附模板)
  • 时间序列基础
  • 中文分词总结:历程、问题、发展
  • CMake指令: include、include_guard、include_directories、target_include_directories
  • 基于51单片机的无线电子密码锁
  • AI对话应用专题:6个高保真APP与网页原型案例详解(附工具指南)
  • Hibernate ORM框架开发指南
  • 同城O2O外卖跑腿源码功能开发详解:多商户、骑手调度、后台管理
  • 如何构建更好的香港服务器安全防护体系
  • @staticmethod 静态装饰器
  • 数据库-数据查询-Like
  • RK3588 ENV 环境配置之 fw_printenv
  • Python基于Django的棉花数据平台建设与可视化系统【附源码、文档说明】
  • MySQL主从数据库搭建
  • VSCode占C盘内存太大,如何处理