Epsanet: An efficient pyramid split attention block on convolutional neural network阅读笔记

arXiv 2021
Hu Zhang, Keke Zu, Jian Lu, Yuru Zou, Deyu Meng
论文地址

一、简介

目前存在的注意力机制存在两个问题:1)如何有效的捕获和利用不同比例尺度的maps的空间信息,丰富maps的空间;2)通道和空间注意力只能捕获局部信息,而不能建立长期的通道依赖关系。

提出了一种新的轻量级、高效的注意力分配方法——金字塔分裂注意模块(PSA)。并且,将ResNet的block中的3×3的卷积替换为PSA,从而得到一个新的block名为搞笑金字塔分裂注意(EPSA),该块能够在更细粒度的层次上有效地提取多尺度空间信息,并形成长距离通道依赖性。

通过堆叠EPSA模块,提出了一种新的骨干网络EPSANet,它能够学习更加丰富的多尺度特征表示,并自适应的重新较准跨维通道注意权重。

二、方法

2.1 通道注意力思考

通道注意力机制允许网络选择性的对每个通道的重要性进行加权,从而生成更具信息性的输出。SE模块由压缩和激励两部分组成,分别用于编码全局信息和自适应的重新较准通道关系。

通道统计可以通过使用全局平局池化层来生成,用于将全局空间信息嵌入到通道描述符中。随后,通过两个完全连接层,可以更有效地组合通道间地线性信息,有利于高、低通道维数信息地交互。最后,激励函数Sigmoid,可以在通道相互作用后给通道赋值,从而更有效地提取信息。

2.2 PSA模块

在这里插入图片描述

PSA模块主要分为四个步骤:

  1. 通过实现 Split 和 Concat(SPC)得到通道方向地多尺度特征maps;
  2. 利用SEWeight提取不同尺度特征maps地关注度,得到通道方向地关注度矢量;
  3. 利用Softmax对通道关注向量进行重新校准,得到多尺度通道地重新较准权重;
  4. 对重新较准地权重和对应地特征图应用逐元素乘积地运算,最后得到更丰富地多尺度特征信息的精化特征图。

在金字塔结构中使用多尺度卷积核可以产生不同空间分辨率和深度,对于每个分割的部分,他独立地学习多尺度空间信息,并以本地方式建立跨通道交互。为了不增加计算量的情况下,处理不同尺度下的输入张量,引入了一种分组卷积方法,并将其并行应用于卷积核。其中多尺度核大小和组大小之间的关系可以写为:

在这里插入图片描述
多尺度特征maps的生成函数如下:
在这里插入图片描述
拼接得到处理后的特征maps:
在这里插入图片描述

在这里插入图片描述

上图为SPC操作,我看了代码,发现作者并没有先split操作,直接通过金字塔组卷积将其分为四个部分,然后拼接在一起。

随后,对每一组特征进行分别进行SEWeight提取通道注意权重,然后将四组权重拼接在一块,然后使用Softmax,具体公式如下:

在这里插入图片描述

我们提出的PSA模块可以将多尺度空间信息和跨通道注意力整合到每个分割的特征组的块中。因此,我们提出的PSA模型可以更好地实现局部和全局通道注意力之间的信息交互。

2.3 网络设计

EPSANet继承了EPSA块的优点,具有很强的多尺度表示能力,并能自适应地重新校准跨维通道权重。

在这里插入图片描述

在这里插入图片描述

三、实验

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
Split Attention Module是一种用于增强特征提取的模块,可以用于替代ResNet的3×3卷积。它在目标分类和目标检测任务中取得了state-of-the-art的效果。该模块的结构可以用三个步骤进行概括:划分(Split)、获得注意力(Attention)和汇聚(Pooling)\[2\]。具体来说,Split Attention的操作是先将划分出的R个组进行相加得到U,然后通过两个全连接层获得注意力权重。注意力权重经过softmax后,将其与划分后的R个组和原始的分支进行相乘,并进行相加,从而完成了split attention的操作\[3\]。这种模块的引入可以提高特征提取的性能,并在图像分类和目标检测任务中取得更好的结果。 #### 引用[.reference_title] - *1* [EPSANet: An Efficient Pyramid Split Attention Block on Convolutional Neural Network 论文解读](https://blog.csdn.net/sc1434404661/article/details/118355530)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [目标检测Backbone系列(1)ResNest——基于Channel-Wise的Split Attention及其block实现](https://blog.csdn.net/lzzzzzzm/article/details/123515132)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ma lidong

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值