论文地址:https://arxiv.org/abs/2211.11167
代码地址:https://github.com/hhb072/STViT
视觉变换器已经在许多视觉任务中取得了令人印象深刻的性能。然而,它在捕捉浅层的局部特征时可能会受到高度冗余的影响。因此,引入了局部自注意力或早期卷积,这些方法牺牲了捕捉长距离依赖性的能力。这引发了一个挑战:我们是否可以在神经网络的早期阶段实现高效且有效的全局上下文建模?为解决这个问题,我们从超像素的设计中汲取灵感,超像素可以减少后续处理中的图像基元数量,并将超级标记引入视觉变换器。超级标记试图提供视觉内容的语义有意义的分割,从而减少自注意中的标记数量,同时保留全