1. SwinTransformer介绍
1.1 摘要:本文提出了一种新的视觉 Transformer,称为 Swin Transformer,它能够作为计算机视觉的通用骨干。 将 Transformer 从语言适应到视觉的挑战源于两个领域之间的差异,例如视觉实体的规模差异较大,以及图像中的像素与文本中的单词相比的高分辨率。 为了解决这些差异,我们提出了一个分层 Transformer,其表示是使用 Shifted windows 计算的。 移位窗口方案通过将自注意力计算限制在非重叠的本地窗口,同时还允许跨窗口连接,带来了更高的效率。 这种层次结构具有在各种尺度上建模的灵活性,并且具有相对于图像大小的线性计算复杂性。 Swin Transformer 的这些品质使其能够兼容广泛的视觉任务,包括图像分类(ImageNet-1K 上的 87.3 top-1 准确度)和物体检测等密集预测任务(COCO testdev 上的 58.7 box AP 和 51.1 mask AP) 和语义分割(ADE20K val 上为 53.5 mIoU)。 其性能在 COCO 上大大超过了之前的最先进水平,+2.7 box AP 和 +2.6 mask AP,在 ADE20K 上超过+3.2 mIoU,展示了基于 Transformer 的模型作为视觉骨干的潜力。 分层设计和移位窗口方法也被证明对全 MLP 架构有益。
官方论文地址: