(八十七):Visual Attention Network
- 出处:CoRR abs/2202.09741 (2022)
- 代码:https://github.com/Visual-Attention-Network
- 题目:Visual Attention Network
- 主要内容:LKA模块可以考虑提出了一种新的Large Kernel Attention(LKA)模块,以使self-attention的自适应和长距离相关。介绍了一种基于LKA的新的神经网络,即视觉注意力网络(VAN)。
Abstract
虽然最初是为自然语言处理(NLP)任务而设计的,但自我注意机制最近已经席卷了各种计算机视觉领域。然而,图像的二维特性给自我注意在计算机视觉中的应用带来了三个挑战。
(1)将图像作为一维序列处理,忽略其二维结构。
(2)对于高分辨率图像来说,二次复杂度过于昂贵。
(3)只捕捉空间适应性,忽略了信道适应性。
在本文中,我们提出了一种新的大核注意(LKA)模块,在避免上述问题的同时,实现了自我注意的自适应和远程相关性。进一步介绍了一种基于LKA的神经网络,即视觉注意网络(VAN)。虽然非常简单和高效,但在图像分类、目标检测、语义分割、实例分割等广泛的实验中,VA