Vision-Language Pretraining.

视觉-语言预训练(Vision-Language Pretraining, VLP)旨在从大规模的图像-文本对中学习通用的跨模态表示,使得模型能够理解图像和文本之间的语义关联。这些预训练模型通常通过图像-文本匹配、对比学习、掩码区域分类等任务来聚合和对齐视觉和语言信息。预训练完成后,模型可以直接在下游的视觉-语言任务上进行微调,如视觉问答(VQA)、视觉推理等。

VLP相比于单一模态的预训练模型的主要优势包括:

根据视觉数据和语言数据的特征交互和对齐方式不同,视觉-语言预训练方法可以分为:

1. 单塔结构模型

单塔结构模型将文本和视觉特征连接到一起,然后输入到单个Transformer模型中(常用BERT)。这种结构利用注意力机制来融合多模态输入,因为对不同的模态都使用了相同形式的参数,所以在参数方面更具效率。

VisualBERT

VisualBERTBERT的基础上进行了扩展,以处理图像和文本的联合输入。除了BERT的文本嵌入外,VisualBERT引入了一组视觉嵌入用于表示图像。每个视觉嵌入对应于图像中的一个边界框区域,由目标检测器提取。

VisualBERT的训练过程包括三个阶段:1. 任务无关预训练:包括掩码语言建模和句子-图像预测;2. 任务特定预训练:掩码语言建模;3. 微调:引入特定任务。

VL-BERT

VL-BERT扩展了BERT模型,使其能够同时处理图像和文本输入。输入包括视觉和语言嵌入特征。每个token的嵌入特征是四种嵌入的总和:标记嵌入、视觉特征嵌入、段嵌入和序列位置嵌入。VL-BERT通过掩码语言建模和掩码RoI分类这两个预训练任务学习视觉与语言的联合表示。

UNITER

UNITER通过设计多种预训练任务来学习上下文化的表示,包括掩码语言建模(MLM)、掩码区域建模(MRM)、图像-文本匹配(ITM)和基于最优传输的词-区域对齐(WRA)。

ImageBERT

ImageBERT收集了一个大规模弱监督图像-文本数据集(LAIT),并采用多阶段预训练策略:在LAIT数据集上进行第一阶段预训练,随后在Conceptual CaptionsSBU Captions数据集上进行第二阶段预训练。预训练任务包括掩码语言模型、掩码目标分类、掩码区域特征回归、图像-文本匹配。

Oscar

Oscar将输入的图像-文本对表示为一个三元组:单词序列、目标标签序列和图像区域特征。这种表示方式允许模型通过目标标签作为锚点,学习图像和文本之间的语义对齐。Oscar的预训练目标包括掩码标记损失和对比损失。

Pixel-BERT

Pixel-BERT没有采用Faster-RCNN提取图像的区域特征,而是直接用CNN提取图像的像素特征。CNN提取的图像特征和文本特征连接之后作为Transformer的输入。为了增强视觉特征的鲁棒性,将图像特征随机采样$100$个视觉特征向量。预训练任务包括掩码语言模型和图像-文本匹配。

VinVL

VinVL通过改进目标检测模型来提供更丰富的图像视觉表示。VinVL基于ResNeXt-152 C4架构,使用改进的Oscar模型进行预训练,以学习图像和文本的联合表示。OSCAR+在预训练阶段使用掩码标记损失(Masked Token Loss)和三元组对比损失(3-way Contrastive Loss)。

ViLT

ViLT模型不依赖于卷积网络或区域监督,而是通过将输入图像划分为固定大小的图像块并进行简单的线性投影将图像和文本嵌入到同一个空间中,然后通过Transformer模块进行交互学习。ViLT在预训练阶段采用了图像-文本匹配和掩码语言建模。

Frozen

Frozen通过将图像编码为预训练语言模型的词嵌入序列,使模型能够在仅通过少量示例提示的情况下快速适应新的视觉-语言任务。在训练过程中,仅更新视觉编码器的参数,冻结语言模型的参数。通过将图像嵌入作为前缀输入到语言模型中,模型能够生成与图像相关的文本(如标题)。训练目标是最大化给定图像的标题生成概率。

VLMo

VLMo通过引入视觉专家(V-FFN)、语言专家(L-FFN)和视觉-语言专家(VL-FFN)来替代标准Transformer中的FFN。视觉专家用于编码图像,语言专家用于编码文本,而视觉-语言专家则用于处理图像-文本对,以捕捉更深层次的模态交互。

VLMo采用了分阶段预训练策略,充分利用大规模的纯图像和纯文本数据。首先使用掩码图像建模进行视觉预训练,其次使用掩码语言建模进行语言预训练,最后使用图像-文本对比学习、掩码语言建模、图像-文本匹配进行视觉-语言预训练。

VL-BEiT

VL-BEiT使用统一的双向Transformer架构,使用混合模态专家作为骨干网络(其形式与VLMo相似),通过掩码语言建模(MLM)、掩码图像建模(MIM)和掩码视觉-语言建模(MVLM)三种任务进行预训练。

BEiT-3

BEiT-3使用共享的Multiway Transformer作为骨干网络,其形式与VLMo相似;并通过掩码建模的方式在单模态(图像、文本)和多模态(图像-文本对)数据上进行预训练。这种方法不仅简化了预训练任务,还使得模型能够高效扩展。

2. 双塔结构模型

双塔结构模型中,文本和视觉特征没有连接在一起,而是分别输入到两个不同的Transformer模块中。这两个Transformer模块没有共享参数,为了达到更高的性能,双塔结构使用交叉注意力的方式来实现不同模态之间的交互。

ViLBERT

ViLBERT扩展了BERT模型,使其能够同时处理图像和文本输入。ViLBERT包含两个并行的BERT风格的模型,分别处理图像区域和文本段落。这两个流通过共注意力Transformer层进行交互,允许两个模态之间的信息交换;并通过掩码多模态建模和多模态对齐预测两个预训练任务学习视觉与语言的联合表示。

LXMERT

LXMERT是一种用于学习视觉与语言之间联系的框架。它构建了一个包含三个编码器(目标关系编码器、语言编码器和跨模态编码器)的大规模Transformer模型,并通过五个预训练任务(掩码语言建模、掩码目标预测: RoI特征回归和检测标签分类、跨模态匹配、图像问答)学习视觉和语言之间的对齐关系。

ALBEF

ALBEF通过对比学习在融合之前对齐图像和文本表示,并引入动量蒸馏(Momentum Distillation)方法来提高模型在噪声数据上的学习能力。ALBEF的预训练目标包括图像-文本对比学习、掩码语言建模、图像-文本匹配。

3. 编解码器模型

编解码器模型通过编解码器结构将视觉和语言任务统一为Token生成任务。编码器将视觉和语言特征编码为统一的表示,解码器则生成对应的输出。

VL-T5

本文提出的框架将视觉和语言问题统一为多模态条件文本生成任务。基于两个预训练的Transformer语言模型T5BaseBARTBase,分别扩展为VL-T5VL-BART。预训练在多任务设置下进行,包括多模态语言建模、视觉问答、图像-文本匹配、视觉定位和基于区域的描述生成等任务。

SimVLM

SimVLM通过前缀语言建模训练了Transformer视觉-语言预训练模型。对于一个图像-文本对,将图像特征作为语言模型的前缀输入,和文本提示词一起作为语言模型编码器的输入,同时利用语言模型的解码器得到对应的文本输出。

GIT

GIT包括一个图像编码器和一个文本解码器。图像编码器输出一个紧凑的二维特征图,然后被展平并投影到文本解码器的输入维度。文本解码器是一个自回归Transformer模块,用于预测文本描述。在预训练阶段,通过语言建模任务将输入图像映射到完整的相关文本描述。

CoCa

CoCa 是一个编码器-解码器架构,其中编码器负责提取图像特征,解码器负责生成文本描述。解码器被分为单模态解码器 和 多模态解码器;单模态解码器仅对输入文本进行编码,实现图像和文本的对齐。多模态解码器通过交叉注意力机制与图像编码器的输出进行交互。CoCa 的训练目标包括对比损失和标题生成损失。

4. 对比学习模型

图像文本对比学习模型通过鼓励相似的图像和文本在嵌入空间中彼此靠近来进行训练。它通常用于学习图像和文本的共享表示,以便在嵌入空间中相似的图像和文本能够彼此靠近。

ALIGN

ALIGN利用简单的双编码器架构和对比损失函数,将图像和文本表示对齐到一个共享嵌入空间,从超过18亿对图像和噪声文本数据中学习视觉和语言表示。

CLIP

CLIP通过在图像和文本数据集中进行匹配来进行视觉语言预训练。具体地,训练一个文本编码器和图像编码器,分别得到文本和图像的编码,并计算两者的匹配程度。

SLIP

SLIP在预训练阶段同时使用图像的自监督学习(通过SimCLR将同一图像的不同增强特征拉近,将不同图像的特征推远)和图像-文本对的语言监督学习(通过CLIP将图像和文本嵌入到一个共享的嵌入空间中)。

GLIP

GLIPCLIP中的图像块-文本匹配扩展到图像区域-文本匹配,使用DyHead作为Visual Encoder来编码图像区域特征,融合后文本和区域特征会分别经过BERTLayerDyHead Module进一步提取特征,最后通过对比学习进行特征对齐。

GLIPv2

GLIPv2 包括双编码器(视觉编码器和文本编码器)和融合编码器。模型输入图像-文本对,输出经过跨模态融合后的特征,用于后续任务的处理。GLIPv2 的预训练包括三个任务:短语定位任务、区域-单词对比学习任务和掩码语言建模任务。

BLIP

BLIP 采用多模态混合编码器-解码器:包括单模态编码器、图像引导的文本编码器和图像引导的文本解码器。

BLIP-2

BLIP-2 利用现成的冻结预训练图像编码器和大型语言模型,使用一个轻量级的 Querying Transformer(Q-Former)桥接视觉和语言模态,通过一组可学习的查询向量从冻结的图像编码器中提取视觉特征并传递给大型语言模型。

BLIP-2 分为两个阶段进行预训练:第一阶段从冻结的图像编码器中引导视觉语言表示学习,使用的预训练任务包括图像-文本对比学习、图像引导的文本生成、图像-文本匹配;第二阶段从冻结的 LLM 中引导视觉到语言的生成学习。

MaskCLIP

MaskCLIPCLIP 的基础上引入掩码自蒸馏来提升对比语言-图像预训练的效果。其中图像的掩码自蒸馏是从完整图像中提取的表征来指导从掩码图像中预测的表征,文本的掩码自蒸馏是通过随机掩码文本中的部分单词来学习文本的局部语义。

Chinese CLIP

Chinese CLIP是一个专门针对中文的视觉-语言对比预训练模型。与传统的多模态模型不同,Chinese CLIP 通过两阶段预训练方法(锁定图像微调和对比微调)在大规模中文图文数据上进行训练,能够有效提升模型在中文场景下的性能。

FLIP

FLIP 的核心思想是在训练过程中随机遮盖图像块,从而减少计算量并提高训练速度。在训练时,随机遮盖掉大部分(如 50%75%)的块,仅对可见块进行编码。这种遮盖方式将图像编码的时间复杂度从 $O(n)$ 降低到 $O(n×(1−m))$。

A-CLIP

A-CLIP 通过保留与文本描述语义相关性高的图像 token,解决了随机掩码导致的语义信息丢失问题,并通过多视图对比学习进一步优化性能。此外,A-CLIP 还引入了辅助自监督学习任务(SimCLR+BYOL),以进一步提升模型性能。

SigLIP

SigLIP使用Sigmoid损失代替CLIP中基于SoftmaxInfoNCE损失,将图像-文本对的相似性评分转化为一个二分类问题:匹配的对为正样本(标签为$1$),不匹配的对为负样本(标签为$-1$)。

\[L = -\frac{1}{\mid B \mid} \sum_{i=1}^{\mid B \mid} \sum_{j=1}^{\mid B \mid} \log\frac{1}{ 1 + e^{z_{ij} (-t x_i \cdot y_j + b)} }\]

SigLIP 2

SigLIP 2SigLIP的基础上引入了基于描述的预训练和自监督损失(如自蒸馏和掩码预测):

LaCLIP

LaCLIP通过语言重写为CLIP训练引入文本增强。具体来说,LaCLIP利用大型语言模型对每个图像的文本描述进行重写。在训练过程中,LaCLIP随机选择原始文本或重写版本作为文本增强,从而显著提升了CLIP的迁移性能。