VL-BEiT:生成式视觉-语言预训练.
0. TL; DR
本文提出了一个名为VL-BEiT的视觉-语言基础模型,通过在图像、文本和图像-文本对上进行掩码预测任务实现多模态预训练。VL-BEiT使用统一的双向Transformer架构,通过掩码语言建模(MLM)、掩码图像建模(MIM)和掩码视觉-语言建模(MVLM)三种任务进行预训练。实验结果表明,VL-BEiT在视觉问答、视觉推理和图像-文本检索等视觉-语言任务上表现出色,同时在图像分类和语义分割等视觉任务上也取得了竞争力的结果。
1. 背景介绍
近年来,生成式预训练在自然语言处理(NLP)和计算机视觉(CV)领域取得了巨大成功。例如,BERT通过掩码语言建模(MLM)学习文本表示,BEIT通过掩码图像建模(MIM)学习图像表示。然而,现有的多模态预训练方法大多依赖于复杂的对比学习目标或多种预训练任务的组合,这限制了模型的扩展性和效率。
本文提出VL-BEiT,一个基于生成式预训练的视觉-语言基础模型。VL-BEiT的核心思想是通过一个统一的掩码预测任务,在单模态(图像和文本)和多模态(图像-文本对)数据上进行预训练。这种方法不仅简化了预训练过程,还使得模型能够高效地扩展到大规模数据。
2. VL-BEiT 模型
VL-BEiT通过掩码预测任务在单模态和多模态数据上进行预训练,使用共享的双向Transformer架构。VL-BEiT将图像和文本分别编码为序列化表示,然后将它们组合起来进行多模态建模:
- 图像表示:图像被分割为一系列patch,每个patch通过线性投影层转换为patch嵌入。此外,添加一个特殊的[I_CLS]标记以表示图像序列的起始位置。
- 文本表示:文本被分词为单词嵌入,并添加特殊标记[T_CLS]和[T_SEP]。最终的文本表示是单词嵌入和位置嵌入的和。
- 图像-文本对表示:将图像和文本的表示拼接起来,形成一个联合的输入序列。
VL-BEiT使用混合模态专家(Mixture-of-Modality-Experts, MOME)Transformer作为骨干网络。MOME Transformer包含多个Transformer块,每个块包含一个跨模态共享的多头自注意力模块和一个模态专家池。这种设计允许模型在不同模态之间对齐内容,同时捕获模态特定的信息。
VL-BEiT通过以下三种掩码预测任务进行预训练,能够学习到强大的多模态表示:
- 掩码语言建模(MLM):随机掩码文本中的部分token,并训练模型根据上下文预测这些掩码token。
- 掩码图像建模(MIM):随机掩码图像中的部分patch,并训练模型预测这些掩码patch的离散视觉token。
- 掩码视觉-语言建模(MVLM):在图像-文本对中,同时掩码文本token和图像patch,并训练模型根据视觉和语言线索预测掩码内容。
3. 实验分析
VL-BEiT的预训练数据包括:
- 单模态数据:使用ImageNet-22K作为图像数据,英文维基百科和BookCorpus作为文本数据。
- 多模态数据:结合Conceptual Captions、SBU Captions、COCO和Visual Genome四个数据集,包含约400万图像和1000万图像-文本对。
VL-BEiT在多个视觉-语言和视觉任务上取得了优异的性能:
- 在视觉问答(VQA)任务上,VL-BEiT达到了77.75%的准确率,超越了其他同类模型。
- 在视觉推理(NLVR2)任务上,VL-BEiT达到了82.66%的准确率,表现出色。
- 在图像-文本检索任务上,VL-BEiT在COCO数据集上达到了79.5%的图像到文本检索Top-1召回率,在Flickr30K数据集上达到了95.8%的文本到图像检索Top-1召回率。
- 在图像分类(ImageNet-1K)任务上,VL-BEiT达到了85.9%的Top-1准确率。
- 在语义分割(ADE20K)任务上,VL-BEiT达到了53.1%的mIoU。
VL-BEiT通过掩码预测任务有效地学习了多模态表示。实验结果表明,掩码视觉-语言建模(MVLM)对于多模态对齐至关重要。此外,MOME Transformer的设计使得模型能够更好地捕获模态特定的信息,从而提升性能。