CoOp: Learning to Prompt for Vision-Language Models

CoOp是针对视觉语言预训练模型的一种上下文优化方法,通过学习的向量来建模提示,改进了如CLIP模型在图像识别等任务上的性能,尤其在few-shot学习中表现出色,同时具有良好的领域泛化能力。
摘要由CSDN通过智能技术生成

目录

Abstract

Introduction

Method

Vision-Language Pre-training

Context Optimization

Experiments

Few-Shot Learning

Domain Generalization

Further Analysis

Conclusion, Limitations and Future Work


Abstract

像CLIP这样的大型预先训练的视觉语言模型在表征学习方面显示出巨大的潜力,这些表征可以在广泛的下游任务中迁移。与传统的基于离散化标签的表征学习不同,视觉语言预训练模型将图像和文本在一个共同的特征空间中对齐,允许通过 prompt 做 zero-shot 迁移到下游任务,分类权重是从我们感兴趣类别的自然语言描述中合成的。

这项工作中我们表明,在实践中部署此类模型的一个主要挑战是 prompt engineering,这需要相关领域专业知识,并且非常耗时——人们需要花费大量时间在单词调优上,因为单词的微小变化可能会对性能产生巨大影响,例如在类别前有无“a”;Prompt engineering还需要关于任务的先验知识:花朵、纹理、卫星等,如下图:(而且即使是做了大量的调整,最后的精度可能不是最优的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值