【ECCV 2022】Visual Prompt Tuning

论文简介:

目前采用预训练模型的方法包括更新所有的主干参数,即完全微调。本文则介绍了视觉提示调优(VPT)作为一种有效的大型 Transformer 模型的替代方案。VPT 从有效调优大型语言模型的最新进展中获得灵感,在输入空间中只引入了少量(少于模型参数的1%)的可训练参数,同时保持模型主干冻结。对各种下游识别任务的广泛实验表明,与其他参数高效的调优协议相比,VPT获得了显著的性能提高。最重要的是,在许多情况下,VPT在跨模型容量和训练数据规模的情况下甚至优于完全微调,同时降低了每个任务的存储成本。

论文介绍:

本文探索了一条不同的模型迁移路线,即不修改或微调预先训练过的 Transformer 本身,而是修改到 Transformer 的输入。从 NLP 中 Prompt 的最新进展的启发,本文提出了一种新的简单有效的方法,将 Transformer 模型用于下游视觉任务(图1(b)),即视觉提示调优(VPT)。

在这里插入图片描述

VPT 只在输入空间中引入了少量特定于任务的可学习参数,同时在下游训练过程中冻结了整个预训练的 Transformer 主干。在实践中,这些附加的参数简单地预先在每个Transformer 层的输入序列中,并在微调过程中与线性头一起学习。

在使用预训练的 ViT 主干的 24 个跨越不同领域的下游识别任务中,VPT 击败了所有其他迁移学习基线,甚至在 20 种情况下超过了完全

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BIT可达鸭

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值