CLIP-Adapter: Better Vision-Language Models with Feature Adapters

文章提出了一种新的方法,CLIP-Adapter,用于在文本和图像分支上添加特征适配器,以优化Few-Shot学习场景中的CLIP模型。与CoOp的可学习Prompt不同,CLIP-Adapter通过微调附加的BottleLinearLayers并使用残差连接保持原始CLIP模型的知识,从而提高鲁棒性和性能。这种方法解决了复杂特征工程和预训练模型在Few-Shot学习时的挑战。
摘要由CSDN通过智能技术生成

Motivation

为避免复杂的特征工程,CoOp 等方法通过上下文优化来学习一个有效的 Prompt,Prompt Tuning 大多应用于文本分支,因此提出一种方法在文本 / 图像分支添加适配器。

Method

CLIP-Adapter 结构及对比

3.1 Classifier Weight Generation for Few-Shot Learning

3.2 CLIP-Adapter

与 CoOp 的 Learnable Prompt 不同,提出的替代框架通过微调附加的特征适配器,在 Few-Shot 实现更好的效果。以前广泛采用的 “预训练微调” 范式由于参数量巨大和训练样例的缺乏,在 Few-Shot 下无法对整个 CLIP 进行微调。因此提出了 CLIP-Adapter,它只在 CLIP 的语言和图像分支中附加少量额外的可学习 Bottle Linear Layers,而在几次微调期间保持原始CLIP主干冻结。

然而,带有附加层的 Naive Fine-Tuning 仍然可能导致过拟合。为解决该问题,提高 CLIP-Adapter 的鲁棒性,采用残差连接将微调后的知识与来自 CLIP 主干的原始知识动态融合。

f = Backbone ( I ) , p i = exp ( W i T f ) / τ ∑ j = 1 N exp ( W j T f ) / τ f=\text{Backbone}(\textbf{I}), p_i=\frac{\text{exp}(\textbf{W}^T_if)/\tau}{\sum^N_{j=1}\text{exp}(\textbf{W}^T_jf)/\tau} f=Backbone(I),pi=j=1Nexp(WjTf)/τexp(WiTf)/τ (1)
W i = BERT ( Tokenizer ( [ H ; C i ] ) ) \textbf{W}_i=\text{BERT}(\text{Tokenizer}([H; C_i])) Wi=BERT(Tokenizer([H;Ci])) (2)

其中,对于 CoOp 计算权重的公式为:
W i = BERT ( [ S ; Tokenizer ( C i ) ] ) \textbf{W}_i=\text{BERT}([S; \text{Tokenizer}(C_i)]) Wi=BERT([S;Tokenizer(Ci)]) (3)

具体而言,给定输入图像 I \textbf{I} I 和一组类别名称 { C i } i = 1 K \{C_i\}^K_{i=1} {Ci}i=1K,由式 (1) 和 (2) 计算原始 CLIP 的图像特征和分类器权值。

将两个可学习的特征适配器 A v ( ⋅ ) A_v(·) Av() A t ( ⋅ ) A_t(·) At() 集成,每个适配器都包含两层线性变换,分别对 f f f W \textbf{W} W 进行变换。对特征适配器采用残差连接,以避免遗忘预训练 CLIP 的原始知识。

采用两个恒定值 α α α β β β 作为 “残差比”,以帮助调整保持原始知识的程度,以获得更好的性能。
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CLIP-Adapter是一篇名为"CLIP-Adapter: Better Vision-Language Models with Feature Adapters"的论文提出的方法。\[1\]该方法通过引入两个可学习的特征适配器Av(⋅)和At(⋅),对视觉特征f和文本特征W进行线性变换。这些适配器通过残差连接与预训练的CLIP模型相结合,以避免遗忘原始知识。\[2\]CLIP-Adapter的主要工作是在视觉或语言分支上使用函数Adapter进行微调,以实现更好的视觉语言模型。具体来说,CLIP-Adapter引入了一个额外的瓶颈层来学习新特征,并执行与原始预训练特征的残差样式特征混合。\[3\]通过这种方式,CLIP-Adapter提供了一种替代prompt tuning的路径来改进视觉语言模型的性能。 #### 引用[.reference_title] - *1* *3* [CLIP-Adapter:利用Adapter微调CLIP适配下游任务](https://blog.csdn.net/weixin_44936889/article/details/120789500)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [CLIP-Adapter: Better Vision-Language Models with Feature Adapters](https://blog.csdn.net/weixin_48907099/article/details/131488484)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值