多模态大模型发展与应用 | 面向视觉-语言模型的递进互提示学习
多模态大模型发展与应用 | 面向视觉-语言模型的递进互提示学习
摘要:大规模预训练视觉-语言模型CLIP(contrastive language-image pretraining)可将输入图像和文本投影到公共语义空间实现跨模态对齐,且在广泛的下游任务上展现了较强的泛化能力。然而,现有的提示学习方法通常在CLIP的视觉编码器和文本编码器的各层分别插入独立的可学习提示向量,以矫正表征空间,但缺乏充分的跨模态交互,且编码器各层的提示相互独立,无法有效引导编码器准确捕获任务所需信息。为解决上述问题,提出递进互提示学习方法(progressive co-prompting learning,ProgCoPL),该方法在视觉编码器层插入由文本提示引导的提示向量,在文本编码器层插入由视觉提示引导的提示向量,从而有效增强了模型的跨模态交互与对齐能力。此外,ProgCoPL通过在编码器各层的提示向量之间添加信息传递通道,实现了层级递进的信息整合,从而更精准地捕获任务相关信息。在11个数据集上的实验结果表明,ProgCoPL能够将CLIP模型高效适配到下游任务,且在多个泛化能力测试中,ProgCoPL的表现超越了现有方法,尤其是在跨数据集泛化能力测试上取得了显著进步。