目录
一、理论部分
最近,研究表明,通过在深度卷积神经网络中嵌入注意力模块,可以有效地提高其性能。本文提出了一种新的轻量级、高效的注意力方法——金字塔分割注意力模块。通过将ResNet瓶颈块中的3x3卷积替换为PSA模块,得到了一种新的表征块——高效金字塔分割注意(Efficient Pyramid Split Attention, EPSA)。EPSA模块可以作为即插即用组件轻松添加到已建立的骨干网络中,并且可以实现模型性能的显着改进。因此,在这项工作中,通过堆叠这些resnet风格的EPSA块,开发了一个简单高效的骨干架构EPSANet。相应地,本文提出的EPSANet可以为各种计算机视觉任务提供更强的多尺度表示能力,包括但不限于图像分类、目标检测、实例分割等。没有花哨的东西,所提出的EPSANet的性能优于大多数最先进的频道注意方法。与SENet-50相比,在ImageNet数据集上Top-1的准确率提高了1.93%,在MS-COCO数据集上使用mask - rcnn的目标检测精度提高了+2.7 box AP,在实例分割方面提高了+1.7 mask AP
网络结构
提出了一种新型的金字塔分散注意力模块。如图3所示,PSA模块主要分为四个步骤实现。首先,通过实现所提出的分割和拼接(SPC)模块,获得通道方向上的多尺度特征映