CLIP网络结构解析 openai/CLIP (Contrastive Language-Image Pre-Training)

1、简单介绍

CLIP是openai公司提出的网络,可以处理文本和图像,是一个多模态网络,对多模态的研究具有一定的推动作用。作为学习,记录一下对CLIP的理解。

在这里插入图片描述
clip的官方网站:
https://openai.com/research/clip
clip的GitHub网址:
https://github.com/openai/CLIP

2、网络结构解析

如图是代码中定义的CLIP类
在这里插入图片描述
代码:

class CLIP(nn.Module):
    def __init__(self,
                 embed_dim: int,
                 # vision
                 image_resolution: int,
                 vision_layers: Union[Tuple[int, int, int, int], int],
                 vision_width: int,
                 vision_patch_size: int,
                 # text
                 context_length: int,
                 vocab_size: int,
                 transformer_width: int,
                 transformer_heads: int,
                 transformer_layers: int
                 ):
        super().__init__()

        self.context_length = context_length

        if isinstance(vision_layers, (tuple, list)):
            vision_heads = vision_width * 32 // 64
            self.visual = ModifiedResNet(
                layers=vision_layers,
                output_dim=embed_dim,
                heads=vision_heads,
                input_resolution=image_resolution,
                width=vision_width
            )
        else:
            vision_heads = vision_width // 64
            self.visual = VisionTransformer(
                input_resolution=image_resolution,
                patch_size=vision_patch_size,
                width=vision_width,
                layers=vision_layers,
                heads=vision_heads,
                output_dim=embed_dim
            )

  

从代码中可以看到,CLIP的init包含 visiontext,分别对应 视觉图像输入 和 文本输入。

而且CLIP包含两种结构,一个是 ModifiedResNet,另一个是 VisionTransformer
也就是CLIP的图像处理是分别采用了 ResNet 和 ViT 的结构,其中resnet的输出采用qkv结构,所以网络中还单独定义了transformer:

self.transformer = Transformer(
            width=transformer_width,
            layers=transformer_layers,
            heads=transformer_heads,
            attn_mask=self.build_attention_mask()
        )

从CLIP的forward函数,可以看出CLIP的数据处理方式:

def forward(self, image, text):
        image_features = self.encode_image(image)
        text_features = self.encode_text(text)

        # normalized features
        image_features = image_features / image_features.norm(dim=1, keepdim=True)
        text_features = text_features / text_features.norm(dim=1, keepdim=True)

        # cosine similarity as logits
        logit_scale = self.logit_scale.exp()
        logits_per_image = logit_scale * image_features @ text_features.t()
        logits_per_text = logits_per_image.t()

        # shape = [global_batch_size, global_batch_size]
        return logits_per_image, logits_per_text

self.encode_image(image) 和 self.encode_text(text) 分别对图像和文本进行编码,随后 normalized features 分别做归一化处理,接着 cosine similarity as logits 计算图像和文本特征的相似性。

从上可以看出,CLIP基本上是在传统的图像特征提取上,加上了文本进行读取和特征处理,最后将图像特征 和 文本特征 进行相似度对比 以建立图像和文本的 关联。

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

清梦枕星河~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值