多模态入门

本文介绍了多模态模型的最新进展,包括VIT图像处理,CNN与Transformer的比较,重点解析了BLIP模型的网络结构和训练目标,如ITC、ITM和LM损失函数。此外,还探讨了CLIP模型的优缺点,负样本构成和0样本分类能力。最后提到了DALLE模型及其在训练数据集上的应用。
摘要由CSDN通过智能技术生成

VIT处理图像

在这里插入图片描述

CNN VS Transformer

在这里插入图片描述

多模态BLIP模型

网络结构

在这里插入图片描述

  • 视觉编码器: 就是 ViT 的架构。将输入图像分割成一个个的 Patch 并将它们编码为一系列 Image Embedding,并使用额外的 [CLS] token 来表示全局的图像特征。视觉编码器不采用之前的基于目标检测器的形式,因为 ViLT 和 SimVLM 等工作已经证明了 ViT 计算更加友好。作用提取图像特征。
  • 文本编码器:就是 BERT 的架构,其中 [CLS] token 附加到文本输入的开头以总结句子。作用是提取文本特征做对比学习。
  • 基于图像的文本编码器:使用 Cross-Attention,作用是根据 ViT 给的图片特征和文本输入做二分类,所以使用的是编码器,且注意力部分是双向的 Self-Attention。添加一个额外的 [Encode] token,作为图像文本的联合表征。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值