ICLR24_CONSISTENCY-GUIDED PROMPT LEARNING FOR VISION-LANGUAGE MODELS

本文提出了一种名为CoPrompt的方法,通过在可训练模型和预训练模型间添加一致性约束,有效防止少样本微调过程中的过拟合,提升了大模型在下游任务的泛化性能。该方法结合了提示和适配器两种优化方式,并通过输入扰动和数据增强增强模型的灵活性。
摘要由CSDN通过智能技术生成

Abstract

提出了一种名为一致性引导提示学习(Consistency-guided Prompt learning,CoPrompt)的微调方法。CoPrompt在少样本设置下微调后,可以改善大模型在下游任务中的泛化能力。CoPrompt的基本思想是在可训练模型和预训练模型的预测中添加一致性约束,以防止在下游任务上过度拟合

关键组件:

  • 在两个扰动输入上约束一致性,并将提示和适配器两种微调范式组合。在扰动输入上保持一致性有助于进一步规范一致性约束,从而提高泛化能力
  • 适配器和提示的整合不仅提高了在下游任务上的性能,还在输入和输出空间中提供了更多的微调灵活性,有助于在少样本学习设置中更有效地适应下游任务
  • 实验证明,CoPrompt在一系列评价标准上的性能优于现有方法,包括base-to-novel泛化、域泛化和跨数据集评估

Intro.

在这里插入图片描述
为保证大模型在小规模的下游任务(例如,少样本学习)微调的性能以及保持泛化能力,出现了多种微调方法。然而,少样本性能的提高往往会导致零样本能力的下降,主要是由于在少样本微调过程中模型对新引入的参数的严重过拟合,导致与基础模型的原始预测出现显著偏离。CoPrompt通过防止可训练模型的嵌入与预训练模型的嵌入在学习新任务时偏离过远来减少过拟合问题并提高泛化能力,在可训练模型和预训练模型之间的语言和图像分支上添加一致性约束。与自监督学习中的一致性正则化不同,扰动输入用于训练可学习编码器和预训练编码器之间保持一致。实现了从冻结的编码器到可学习的编码器间的知识蒸馏,从而在处理少样本新任务时保持了预训练基础模型的泛化能力。引入了两个额外的组件来改进所提出的一致性约束:

  • 在两个扰动输入上约束一致性,文本分支从通用格式的输入提示文本生成更详细和描述性的句子,在这两个句子的表示之间约束可学习和预训练文本编码器之间的一致性;图像分支对输入图像应用增强,生成两个扰动图像
  • 集成了两种主要的调优范式,adapter与prompt,在输入和输出空间中提供了增强的调优灵活性,促进了在少样本情景中学习新任务的更有效的学习,以前的工作尚未能成功地将它们结合起来以提高性能,模型往往会因为额外的可学习参数而过拟合

Contributions

  • 提出了一种强调一致性的大模型微调方法,能够从少量样本中学习新任务,而不会失去零样本泛化能力
  • 结合了预训练LLM的知识,并在文本分支上施加了一致性约束,以及在图像分支上进行数据增强,进一步提高了泛化性能
  • 将两种强大的基础模型调优范式,提示和适配器,结合成一个单一框架,以提高在新任务上的性能
  • 多个评价基准上的实验效果出色

Method

COPROMPT: CONSISTENCY-GUIDED PROMPT LEARNING

在这里插入图片描述

Consistency constraint

使用余弦距离作为预训练和可学习编码器的嵌入之间的一致性约束(实验选择度量标准,捕捉了向量之间的角度相似性,而不仅仅依赖于它们的大小)
在这里插入图片描述

Input perturbation

给定模板文本“a photo of a [category]”,使用预训练的大语言模型 GPT 生成更具描述性的句子 s k = ϕ G P T ( ‘ a photo of a [category] k ’ ) ) s_k=\phi_{GPT}(‘\text{a photo of a [category]}_k’)) sk=ϕGPT(a photo of a [category]k))。在图像分支上,使用一个数据增强模块 δ δ δ来生成扰动后的图像 x ′ = δ ( x ) x' = δ(x) x=δ(x)。约束扰动输入到预训练模型和可学习模型的嵌入之间的一致性:
在这里插入图片描述

Adapters

适配器(两个线性层之间带有非线性的结构)添加在图像及文本编码器的顶部以变换嵌入向量
在这里插入图片描述
约束两个模态上嵌入之间的一致性


Experiments

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值