Swin Transformer对CNN的降维打击

本文详细解析了Swin-Transformer的网络结构,包括PatchPartition、LinearEmbedding、PatchMerging和swin-transformer块,重点介绍了如何在一个窗口内进行self-attention计算,以及shiftedwindow技术的实现。同时提及了Java开发的学习资源,包括面试题解析和学习笔记等内容。
摘要由CSDN通过智能技术生成

一般而言,我拿到一篇论文之后,会首先分析每个块的输入输出是怎样的,先从整体上对网络结构把握,然后在慢慢的细化。我们首先来梳理一下swin-transformer每个块的输入输出。

在这里插入图片描述

| stage | Layer | size |

| — | — | — |

| | input image | 224x224x3 |

| | patch partition | 224/4 x 224/4 x 4x4x3 |

| 1 | linear embedding | 224/4 x 224/4 x 96 |

| 1 | swin transformer | 224/4 x 224/4 x 96 |

| 2 | patch merging | 224/8 x 224/8 x 192 |

| 2 | swin transformer | 224/8 x 224/8 x 192 |

| 3 | patch merging | 224/16 x 224/16 x 192 |

| 3 | swin transformer | 224/16 x 224/16 x 192 |

| 4 | patch merging | 224/32 x 224/32 x 384 |

| 4 | swin transformer | 224/32 x 224/32 x 384 |

从结构图中可以看到,swin-transformer网络结构主要包括以下层:

  • 1.Patch Partition:将输入图像划分为若干个patch

  • 2.Linear Embedding:将输入图像映射要任意维度(论文中记为C,即C=96)

  • 3.Patch Merging:降低分辨率,扩大感受野,获得多层次的特征信息,类似于CNN中的pool层

  • 4.swin transformer:特征提取及特征表征

2.3 swin-transformer结构解析

到这里我们已经大致了解swin-transformer网络

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值