论文阅读--CLIP4Clip

CLIP天生适合做retrieve的任务,拿编码好的特征做相似度计算

CLIP做视频的迁移问题在于,一般视频的处理方式是对多个帧做patch,因此得到的图像特征应该是多个帧的融合特征,但CLIP是一个文本特征对应一个图像特征,这时候该如何进行相似度计算?

第一种方法:直接取平均。缺点是没有考虑到时序的特性,例如两段视频,一段是人慢慢坐下,一段是人慢慢起身,直接取平均的话这两段视频的语义是一样的

第二章方法:用transformer或LSTM,把时序信息加进去

第三章方法:不在最后融合特征,而是将文本与视频帧丢入同一个transformer,类似于把文本特征当成cls token,最后把融合了视频与文本的特征去做相似度计算

用少量数据集时直接平均的效果最好,只有当数据量上去的时候,后面的方法效果才会提高

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CLIP-Adapter是一篇名为"CLIP-Adapter: Better Vision-Language Models with Feature Adapters"的论文提出的方法。\[1\]该方法通过引入两个可学习的特征适配器Av(⋅)和At(⋅),对视觉特征f和文本特征W进行线性变换。这些适配器通过残差连接与预训练的CLIP模型相结合,以避免遗忘原始知识。\[2\]CLIP-Adapter的主要工作是在视觉或语言分支上使用函数Adapter进行微调,以实现更好的视觉语言模型。具体来说,CLIP-Adapter引入了一个额外的瓶颈层来学习新特征,并执行与原始预训练特征的残差样式特征混合。\[3\]通过这种方式,CLIP-Adapter提供了一种替代prompt tuning的路径来改进视觉语言模型的性能。 #### 引用[.reference_title] - *1* *3* [CLIP-Adapter:利用Adapter微调CLIP适配下游任务](https://blog.csdn.net/weixin_44936889/article/details/120789500)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [CLIP-Adapter: Better Vision-Language Models with Feature Adapters](https://blog.csdn.net/weixin_48907099/article/details/131488484)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值