基于大模型的图像推理——VLM相关调研

最近GPT o3和GPT o4-mini的图片推理能力又上了新的台阶,导师叫我调研一下基于大模型的图像推理的相关研究,于是花了几天时间整理了一下近年来VLM(visual language model)的相关研究。

目录

一、什么是VLM

二、VLM结构

2.1 VLM结构

2.2 VLM类别

2.2.1 基于对比学习的VLM

2.2.2 基于掩码的VLM

2.2.3 基于生成式的VLM

2.2.4 基于预训练主干网络的VLM

三、VLM训练

3.1 优化训练数据

3.1.1 VLM训练数据修剪

3.1.2 使用合成数据集

3.1.3 使用数据增强

3.1.4 使用交错数据集

3.1.5 其他VLM训练数据优化策略

3.2 优化训练策略

3.2.1 提升VLM的基础关联能力

3.2.2 提升VLM生成的对齐度

3.2.3 其他VLM训练方向

四、VLM基准测试

4.1 视觉语言能力基准测试

4.2 VLM偏差与差异的基准测试

4.3 幻觉基准测试

4.4 记忆能力基准测试

参考文献


一、什么是VLM

 视觉语言模型(Visual Language Model)是通过将大语言模型 (LLM) 图像编码器相结合构建的多模态 AI 系统,使大语言模型具有理解图像的能力。用户可以通过输入图像、视频并通过文字进行指导来与VLM进行交互,VLM会根据输入文字中的提示信息在图像或视频中进行推理,并完成对应任务。

VLM相比于传统的卷积神经网络更为灵活,传统的CNN若要完成某一特定的任务,必须在对应的数据集上进行训练,且后续使用该网络时不能出现训练数据集中不存在的类别。若要使某一训练好的CNN识别更多类别的物体或是完成一项新的任务,必须重新收集训练数据集并在新的数据集上重新进行训练。除此之外,CNN无法通过自然语言进行交互。

因此,VLM具有以下优点:

  • 多模态处理能力
  • 自然语言理解与处理能力
  • 全语义理解能力
  • /少样本学习能力
  • 较强的交互性

二、VLM结构

2.1 VLM结构

VLM一般由下面几个部分组成:

  • 图像编码器:基于transformer架构的CLIP模型,在数百万个图像-文本对上进行预训练,使这一层具有识别图像并将其与文本关联的能力。
  • 投影器:将视觉编码器的输出转化为tokens,这些tokens作为LLM的输入。投影器可以使用MLP或交叉注意力层。
  • 文本编码器:将输入的文字转化为tokens。
  • LLM:大语言模型,根据图像tokens与文本tokens进行推理并生成文本或图像结果。

2.2 VLM类别

基于transformer架构,共有四种不同的VLM训练模式(training paradigm):

  • 基于对比学习Contrastive)的VLM
  • 基于掩码Masking)的VLM
  • 基于生成式Generative)的VLM
  • 基于预训练主干网络Pretrained Backbones)的VLM

2.2.1 基于对比学习的VLM

 

将不同模态的输入编码得到特征,通过对比学习损失拉近正例的特征距离,推远负例的特征距离,从而学习良好的特征表示。从能量模型角度理解,模型会为来自目标分布的数据(正例)分配低能量,为其他数据(负例)分配高能量。

常用的InfoNCE损失函数,通过计算正例对和所有负例对在模型表示空间中的距离(如余弦相似度),让模型学习预测最可能匹配的示例对,为其他负例对分配较低概率 。 InfoNCE损失函数定义如下:其中(𝑖,𝑗)是正例对,𝑧𝑖 , 𝑧𝑗是其特征表示,𝐶o𝑆𝑖𝑚表示余弦相似度。

Contrastive Language–Image Pre-training (CLIP)是使用InfoNCE的一个常见的方法。正例对被定义为一张图片与其真实描述的样本对,而负例对被定义为这张图片与它的错误描述(同一个小批量中其他图片的描述)。CLIP 训练随机初始化的视觉和文本编码器,以使用对比损失将图像及其描述映射到类似的嵌入向量。

SigLIPCLIP类似,但SigLIP没有使用InfoNCE,取而代之的是使用基于二进制交叉熵的原始NCE损失,这使得SigLIP在更小的批量上具有比CLIP更好的0-shot性能。

Latent language image pretraining (Llip)通过一个交叉注意力模块,依据目标字幕来对图像的编码进行调节,因为一张图像的描述可以有很多种。这样可以增加模型的特征表达能力。

2.2.2 基于掩码的VLM

图像编码器部分,对图像的一些区域或小块进行掩码。模型需要根据未掩码的图像部分以及文本信息来重建被掩码的图像区域。这有助于模型学习图像的空间结构和语义信息,以及图像与文本之间的跨模态对应关系。

文本编码器部分,类似于BERT中的做法,随机选择一部分文本标记进行掩码处理。模型的任务是根据未掩码的文本标记以及图像信息来预测被掩码的文本标记。通过这种方式,模型可以学习到文本的上下文信息以及文本与图像之间的关联,提高对语言的理解和生成能力。

Foundational Language And Vision AlignmentFLAVA是第一个基于掩码的VLM,它的图像编码器采用ViT架构,将图像分割成小块并进行线性嵌入和 Transformer 处理,输出图像隐藏状态向量,其中包含分类标记([CLS_I])。文本编码器利用 Transformer 对文本输入进行标记化和嵌入处理,转化为向量形式后再通过 Transformer 编码,输出隐藏状态向量和分类标记([CLS_T])。多模态编码器则融合图像和文本编码器的隐藏状态,它借助 Transformer 框架内的线性投影和交叉注意力机制,将视觉和文本信息整合在一起,突出多模态分类标记([CLS_M])。

2.2.3 基于生成式的VLM

前两种VLM主要关注文字与图像进行抽象转化后的映射关系,而基于生成式的VLM主要关注文字与图像之间的相互转换

  • 根据图像生成图像对应描述的模型有Contrastive Captioner (CoCa)等;
  • 根据描述文字生成图像的模型有Stable DiffusionImagenParti等;
  • 同时生成文字与图像的多模态生成模型有Chameleon团队的ChameleonCM3leon等。

2.2.4 基于预训练主干网络的VLM

前面的三种VLM都需要使用大量的图片-文本对进行训练,且VLM的训练成本较高,而基于预训练主干网络的VLM使用训练好的开源的图像编码器(如前面提到的CLIPCoCa等)与LLM(如Vicuna language modelLlama),这两部分的参数被“冻结”,不参与整体网络的训练,参与训练的部分为负责匹配图像编码器输出与LLM输入tokens的匹配网络,即VLM架构中的投影器projector以实现将图像编码器提取的视觉特征准确投射到tokens上,从而让模型能够将视觉信息与LLM相结合。


 

三、VLM训练

由于scaling law的存在,单纯地增加模型的参数量或训练数据大小,对模型性能的提升不显著。因此在训练VLM时需要引入一些训练策略来突破scaling law

训练数据上,常用的策略有:

  • 去除训练集中重复的数据
  • 保证训练集中各个类别出现的概率平衡
  • 对训练集进行数据修剪操作,保留高质量的、正确的训练数据
  • 使用人工标注的细粒度数据集进行训练,提升训练数据的质量

常用的训练策略有:

  • 使用边界框负样本以提升模型的基础定位能力
  • 微调,包括基于LoRA的方法、基于prompt的方法、基于adapter的方法、基于mapping的方法等
  • 基于人类反馈提升模型的细粒度对齐度

3.1 优化训练数据

3.1.1 VLM训练数据修剪

训练数据的质量直接影响到了VLM的性能,论文DataComp中表明可以通过数据修剪(data pruning)技术提升训练效率与VLM模型的表达能力。

VLM的数据修剪方法有以下三类:

  • 去除低质量图像文本对数据的启发式方法:

        单模态:只考虑数据单一方面的性质,文本方面去除文本复杂度低、non-English alt-text的数据;图像方面去除图像分辨率低、宽高比异常的数据。

        多模态:考虑图像文本对的整体性质,使用图像分类器去除重复度高、文本描述异常、图像中不存在物体的数据。

  • 利用预训练的视觉语言模型根据图像 - 文本对的多模态对齐程度对其进行排序,丢弃对齐不佳的数据对的自举方法。
  • 创建多样化且平衡的数据集的方法 。

3.1.2 使用合成数据集

类似自监督学习,不使用从网络上爬取的图像文本对,取而代之的是使用预训练好的模型生成图像文本对数据,再将这些数据用于自身训练。这些生成的数据对齐度良好、数据构成均匀、生成内容安全,可以增强训练数据的多样性,也会引入部分训练噪声来提高模型的泛化能力。

3.1.3 使用数据增强

例如CLIP🚀中使用的非对称增强,生成一对弱增强与强增强样本,其中弱增强样本对图像进行尺度范围 (0.5, 1)的随机剪裁,对文本进行以0.8的概率随机删除文中的stop words;强增强样本对图像进行如下操作:以更宽泛(0.08, 1)的尺度进行随机剪裁,再以0.8的概率对图像对比度、亮度、饱和度和色调进行抖动处理,以0.2的概率进行灰度化处理,以0.5的概率进行高斯模糊、以0.5的概率进行水平翻转。对文本进行如下操作:若同一图像有多个caption,每次增强操作从中独立且均匀地采样一个caption;若只有一个caption,对这个captain进行stop words删除并随机结合同义词替换、单词插入/删除、句子改组三种操作中的一种。

3.1.4 使用交错数据集

Interleaved data(交错数据)是一种多模态数据,将不同模态数据按特定顺序交叉排列组合的数据形式。使用交错数据可帮助模型学习图像和文本之间的细粒度对齐关系,提高模型在视觉问答、图像字幕生成等任务中的性能。

OBELICS数据集,是一种自然的交错数据集,在图文交错的网页上爬取得到。

MMC4数据集,是一种合成的交错数据集,图片从互联网中收集得到,并在图片的上下文中加入文本描述。

3.1.5 其他VLM训练数据优化策略

评估多模态训练数据质量

评价图像文本对数据中文本的质量、图像的质量、图像和文本之间的对齐度等。但整体地评价多模态与交错数据质量的研究还有所欠缺,缺少一种系统性的评价指标。

使用高质量人类标注的数据集

使用如DCI数据集之类的细粒度人工标注数据集,但细粒度的数据集数量较小,不适用于从零开始训练VLM模型,更适用于对模型的fine-tuning

3.2 优化训练策略

3.2.1 提升VLM的基础关联能力

Grounding(基础关联能力)VLM需要提升的一个重要能力。对于文字,VLM需要正确地理解用户输入的文字提示,并将这些提示与图片中的信息相关联。对于图片,VLM需要理解图片中的各种关系:物体A在物体B的左边或右边、物体A是否属于某一类别、统计图中物体A的数量、理解物体A的颜色与纹理等。目前还没有一种简单有效的方法可以提升VLM的基础关联能力,常用的方法有使用边界框标注负样本标注等。

3.2.2 提升VLM生成的对齐度

 

与其他生成式模型一样,VLM的生成也要符合用户的偏好。提升VLM对齐度的方法与语言模型领域的方法一致,常用的方法有指令微调与基于人类反馈的强化学习。

指令微调

在包含指令、输入和期望输出的监督数据上对VLM进行微调。通常,与预训练数据相比,指令微调数据集要小得多,指令微调数据的规模从几千到十万个样本不等。(LLaVaInstructBLIPOpenFlamingo

基于人类反馈的强化学习( RLHF

目的是使模型输出与人类偏好保持一致。方法为训练一个奖励模型,以匹配人类对模型响应好坏的偏好。虽然指令调整需要有监督的训练样本,而收集这些样本成本可能很高,但RLHF利用辅助奖励模型来模拟人类偏好。然后,VLM会与奖励模型一起进行微调,以使输出与人类偏好一致。

3.2.3 其他VLM训练方向

提升 VLM 富文本图像理解能力

VLM除了需要理解图像中的物体与物体间的关系之外,也需要理解图像中的文本信息(这里的文本信息是图像中的文本,而不是VLM多模态输入中的文本)。与多模态大语言模型类似,VLM需要在不经过OCR训练的情况下实现图像的文本识别与理解。目前的研究方向有:使用细粒度富含文本的数据进行指令微调(LLaVAR)、处理高分辨率图像中的细粒度文本(Monkey)、解耦场景文本识别模块与多模态大语言模型(Lumos

VLM 参数进行高效微调( PEFT

由于VLM参数量较大,在某些应用场景下重新训练VLM或对VLM整体的参数进行微调不太可行,因此需要根据实际应用任务对VLM的部分组件的参数进行高效的fine-tuning。现有的PEFT方法有:基于低秩适配器(LoRa)的方法、基于提示(Prompt)的方法、基于适配器(Adapter)的方法以及基于映射(Mapping)的方法

 


四、VLM基准测试

评价VLM的性能就是要评价VLM是否能将文本与图片进行正确映射,或者VLM能否根据图片中的线索进行推理并正确回答问题。同时,VLM的输出不应该出现对物体的错误描述、错误分类、幻觉等错误信息。VLM基准测试主要有下面几种:

视觉语言能力基准测试
VLM 偏差与差异的基准测试
幻觉基准测试
记忆能力基准测试
红队测试( Red-Teaming

 

4.1 视觉语言能力基准测试

视觉语言能力基准测试是一系列的测试,用于评估VLM 是否能够将特定的单词或短语与相应的视觉线索联系起来,可以直观地评价VLM视觉-语言映射的学习效果。这一系列的测试如下:

生成图像描述 :比较 VLM 生成的图像描述与参考描述之间的差异( CLIPScore )。
文本与图像一致性 :给定图像描述(也可以是基于图像描述的问题),根据该文本生成图像, 以衡量生成的图像与文本提示之间的一致性。
视觉问答( VQA :输入图片,对模型进行如“图中的物体是什么?”、“图中的物体 A 在哪里”等问题,考察 VLM 回答的正确率。
基于文本的视觉问答 :在传统 VQA 的基础上还要求模型准确读取场景中的文本并设计( devise )其结构和排序方式,以及对图像中的文本以及图像中的其他视觉元素进行推理。
零样本图像分类 :在模型未进行过明确训练的分类任务上对模型进行评估。
视觉 - 语言组合推理 :创建一些具有歧义的图像描述, 评估模型从干扰后的描述中区分出正确描述的能力。
密集字幕与裁剪 - 字幕匹配 对于每一幅图像, VLM 应将所有子图像说明中的正确说明与正确的子图像进行匹配
基于合成数据的视觉 - 语言评估 :在合成数据集(水底的大象、空中的咖啡杯等)上评估 VLM 的能力。

4.2 VLM偏差与差异的基准测试

VLM中的偏差(bias)是指模型在处理视觉和语言信息时,对不同群体或类别表现出的不公平、不一致或不准确的倾向。例如,在给定不同种族和性别的医生图片,并询问“描述这个人的 5 个关键词”时,模型可能会对黑人或肥胖人群生成更多带有负面或刻板印象的词汇。评价VLM偏差与差异的方法如下:

通过分类对偏差进行基准测试

首先定义偏差类型,如人口统计学中的偏差(性别、年龄、肤色、种族等)、语义关联偏差(“程序员”与男性、“护士”与女性等),评估的数据集可以是基于真实的数据集也可以是合成数据集,在数据集上评估模型对这些偏差的分类情况。

通过嵌入对偏差进行基准测试

该方法不是评估分类等特定的最终任务,而是分析文本和图像的表示之间的关系。嵌入空间分析可以揭示在评估任务中难以衡量的学习关系。Grounded-WEAT/SEAT通过计算​​文本嵌入​​与​​图像嵌入​​的相似性,检测模型是否将特定群体属性(如性别、种族)与刻板概念关联。

4.3 幻觉基准测试

 VLM中的幻觉(bias)是指模型生成图像无关、错误或虚构的信息,包含对象级幻觉(生成图像中不存在的对象)、属性级幻觉​​(错误描述对象的属性)、关系级幻觉(虚构对象间的交互)、​​上下文级幻觉​​(生成与图像无关的上下文)。主流的测试方法有CHAIR (Caption Hallucination Assessment with Image Relevance)POPE (Polling-based Object Probing Evaluation)​

 

CHAIR可以检测对象级幻觉,使用预定义的对象词汇表对比VLM生成描述中的对象与图像真实标注的对象,计算幻觉率。

POPE生成“图中是否有[对象]?”的提问,然后统计模型回答的准确率。

4.4 记忆能力基准测试

记忆能力基准测试评估模型是否过度记住了训练数据中的特定样本或敏感信息,而不是学习通用的跨模态关联。Déjà Vu Memorization(既视感记忆检测)是一个常用的方法,用于衡量VLM对训练数据中特定图片对象或细节的记忆能力,即使这些细节未在对应的图片描述中以文字的形式存在。

在该方法中,选择一个目标训练样本,其中图像包含某些未在文本中描述的对象(如背景中的物体)。使用一个未接触过该训练样本的参考模型​​,在公开数据集(ImageNet)中搜索与目标文本最相似的图像。对比目标模型​​和参考模型对同一批图像的预测结果。对目标模型的训练样本文本,找到公开数据集中与之最相似的 k 张图像。使用目标模型参考模型分别预测这些图像中的对象。计算两模型在对象检测精度召回率上的差异。若目标模型在未描述的物体上显著优于参考模型(更高的召回率),则表明目标模型可能记忆了训练数据中的视觉细节。


参考文献

Bordes, F., Pang, R. Y., Ajay, A., Li, A. C., Bardes, A., Petryk, S., … Chandra, V. (2024). An introduction to vision-language modeling.

Radford, A., Kim, J. W., Hallacy, C., Ramesh, A., Goh, G., Agarwal, S., … Sutskever, I. (2021). Learning transferable visual models from Natural Language Supervision.

A. Singh et al., "FLAVA: A Foundational Language And Vision Alignment Model," 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).

Sorscher, B., Ganguli, S., Geirhos, R., Shekhar, S., Morcos, A. S. (2022). Beyond neural scaling laws: beating power law scaling via data pruning.

Hasan Abed Al Kader Hammoud, Hani Itani, Fabio Pizzati, Philip Torr, Adel Bibi, and Bernard Ghanem(2024). Synthclip: Are we ready for a fully synthetic clip training?

Enrico Fini, Pietro Astolfi, Adriana Romero-Soriano, Jakob Verbeek, and Michal Drozdzal(2023). Improved baselines for vision-language pre-training.

Wanrong Zhu, Jack Hessel, Anas Awadalla, Samir Yitzhak Gadre, Jesse Dodge, Alex Fang, Youngjae Yu, Ludwig Schmidt, William Yang Wang, and Yejin Choi(2023). Multimodal c4: An open, billion-scale corpus of images interleaved with text.

Hugo Laurençon, Lucile Saulnier, Leo Tronchon, Stas Bekman, Amanpreet Singh, An ton Lozhkov, Thomas Wang, Siddharth Karamcheti, Alexander M Rush, Douwe Kiela, Matthieu Cord, and Victor Sanh(2023). OBELICS: An open web-scale filtered dataset of in terleaved image-text documents.

Anna Rohrbach, Lisa Anne Hendricks, Kaylee Burns, Trevor Darrell, and Kate Saenko. (2018). Object Hallucination in Image Captioning.

Yifan Li, Yifan Du, Kun Zhou, Jinpeng Wang, Xin Zhao, and Ji-Rong Wen. (2023). Evaluating Object Hallucination in Large Vision-Language Models.

Bargav Jayaraman, Chuan Guo, and Kamalika Chaudhuri. (2024). Déjà vu memorization in vision-language models.

Zongxia Li et al. (2025). A Survey of State of the Art Large Vision Language Models: Alignment, Benchmark, Evaluations and Challenges.

### VLM大模型与VLA大模型的区别及特点 #### VLM大模型的特点 视觉语言模型(VLM)主要关注如何通过联合建模来处理来自不同模态的数据,特别是图像和文本数据。这类模型能够执行诸如图像字幕生成、视觉问答(VQA)等任务,在这些应用中,系统不仅需要识别图片的内容还要能解释其含义并给出相应的文字描述。早期的研究工作如VQA可以视为VLM发展的开端之一[^1]。 随着技术进步,出现了更多先进的架构和技术手段支持更复杂的跨模态交互功能;例如Vision Transformers (ViT),以及多模态预训练框架CLIP都极大推进了该领域的发展水平,使得机器能够在更大规模上学习到更加抽象的概念表示形式,并提高了泛化能力[^2]。 #### VLA大模型的特点 相比之下,视觉语言动作模型(VLA),则进一步拓展到了第三个维度——行动决策方面。RT-2作为这一类别的先驱代表作,成功实现了将感知(看)、认知(说/理解)同行为控制相结合的目标,从而让智能体具备了根据所见所闻做出适当反应的能力,进而完成特定的任务或解决现实世界里的问题。 这种类型的模型对于构建真正意义上的自主代理至关重要,因为后者往往面临着复杂多变的真实环境挑战,必须依赖高效可靠的感官输入解析机制才能作出合理判断并采取有效措施。因此可以说,VLA是在VLM基础上增加了对物理世界的操控技能,使其成为实现具身智能的关键一步[^3]。 #### 主要区别总结 | 对比项 | VLM 大模型 | VLA 大模型 | | --- | --- | --- | | **核心能力** | 图像理解和自然语言处理的结合 | 视觉、语言的理解加上动作规划与执行 | | **应用场景** | 图片标注、视觉问答等静态内容分析 | 自动驾驶汽车导航、服务型机器人操作物体等动态交互场景 | | **代表性成果** | ViT, CLIP 等专注于提升跨模态表征质量的技术方案 | RT-2 是首个证明可以在实际环境中利用视觉线索指导机械臂工作的实例 |
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值