关于VIT(Vision Transformer)的架构记录

本文详细描述了VIT模型如何在保持Transformer架构的基础上处理图像分类任务,包括图像分割、线性嵌入、位置编码和Transformer编码器的使用过程,以及参考了AttentionisAllYouNeed论文中的注意力机制。
摘要由CSDN通过智能技术生成

在VIT模型设计中,尽可能地紧密遵循原始的Transformer模型(Vaswani等人,2017年)。这种刻意简化的设置的一个优势是,可扩展的NLP Transformer架构及其高效的实现几乎可以即插即用。

图:模型概述。我们将图像分割为固定大小的补丁,线性嵌入每个补丁,添加位置嵌入,并将结果向量序列馈送到标准Transformer编码器中。为了进行分类,我们采用了添加额外可学习的“分类标记”的标准方法。Transformer编码器的插图灵感来自Vaswani等人(2017年)。

原文这段话解释了VIT的架构,我们假设H=W=224,P=16。

那么我们首先将224*224*3的x变成196*768。

然后经过一个线性层,其中D=768(可以变,这是transformer架构的参数),还是196*768。

加一个cls额外token,变成197*768。

然后位置嵌入一下,还是196*768。

得到的嵌入向量作为编码器的输入。

公式是这些,transformer内部的我就不介绍了,可以看attention is all you need 这篇论文。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值