【无标题】多模态模型 CLIP



论文和代码链接

https://arxiv.org/pdf/2103.00020.pdf
https://github.com/openai/CLIP





介绍

CLIP是一个双模态的任务,例如输入一句句子,输出一个图像;之前有一些工作是通过图像预测文字描述,而CLIP是通过文字输出图像;



亮点

1、双模态,输入是文本和图像,文本和图像分别进入encoder编码;

2、采用对比学习 contrastive learning;

3、将分类模型转换为图文匹配问题;



Model



网络上有很多图文配对,作者是用了50w个query在网上搜索图片,每个query 2w个图片,总共4E张图片。

 输入是N对图文,本文和图片分别通过对应的encoder,得到embeding,通过对比loss,计算2模态之间的cosine similarity,希望配对的loss最大(也就是图中斜对角的值最大),其余的值最小。是zero-shot的其中一种方式。

其中text encoder使用transformer,image encoder采用了2种模型,分别为:

  • 5种ResNet:ResNet-50, ResNet-101, EfficientNet-style的ResNet,包括RN50x4, RN50x16, RN50x64;
  •  3种ViT:ViT-B/32, ViT-B/16, ViT-L/14;

伪代码如下:

总结:

这比Imagenet单纯的分类好,因为如果只是分类的话,encoder只会考虑某个元素,以‘狗’为例,当对狗进行分类的时,只会聚集一些关于狗的特征;但如果是用图文匹配的方式的话,文字中除了狗的信息,还包括了其他多余的信息。例如,这是一只田园犬,可以对其细分等等。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值