一、金字塔网络
Feature Pyramid Networks for Object Detection
使用优点:对图像金字塔的每个级别进行特征化的主要优点是,它产生了一个多尺度特征表示,其中所有级别在语义上都很强,包括高分辨率级别。
本文的目标是自然地利用ConvNet的特征层次结构的金字塔形状,同时创建一个在所有尺度上都具有强大语义的特征金字塔。
为了实现这一目标,我们依赖于一种通过自上而下的路径和横向连接将低分辨率、语义强的特征与高分辨率、语义弱的特征相结合的架构(图第1(d)段)。结果是一个在所有级别都具有丰富语义的特征金字塔,它是从单个输入图像尺度快速构建的。换句话说,我们展示了如何在不牺牲代表能力、速度或内存的情况下创建可用于替换特征化图像金字塔的网络内特征金字塔。
我们的金字塔结构可以用所有尺度进行端到端训练,并且在训练/测试时一致使用,这将是使用图像金字塔的记忆不可行的。因此,FPN能够实现比所有现有的最先进的方法更高的精度。此外,这种改进是在不增加单尺度基线测试时间的情况下实现的。
二、金字塔注意力网络
EPSANet: 一种高效的多尺度通道注意力机制
参考文章:EPSANet: 一种高效的多尺度通道注意力机制,主要提出了金字塔注意力模块,即插即用,效果显著,已开源! - 知乎 (zhihu.com)
CVPR2021|一个高效的金字塔切分注意力模块PSA -阿里云开发者社区 (aliyun.com)
CVPR2021|一个高效的金字塔切分注意力模块PSA - 知乎 (zhihu.com)
1.两个具有挑战性的问题:
(1)如何有效地获取和利用不同尺度的特征图的空间信息,丰富特征空间。
(2)通道注意力或者或空间注意力只能有效捕获局部信息,而不能建立长期的依赖关系。
PSA模块可以处理多尺度的输入特征图的空间信息并且能够有效地建立多尺度通道注意力间的长期依赖关系。基于EPSA block我们构建了一个新的骨干网络称作:EPSANet。它既可以提供强有力的多尺度特征表示能力。
2.主要创新与贡献:
- 本文提出了一种新的高效金字塔注意力分割模块(Efficient Pyramid Split Attention, EPSA),该模块可以有效地提取更细粒度的多尺度空间信息,同时可以建立更长距离的通道依赖关系。EPSA模块非常灵活和可扩展的,因此可以直接应用到各类计算机视觉网络架构中。
- 本文提出了一种新的骨干网络:EPSANet,它可以学习更丰富的多尺度特征表示,同时可以自适应地对多维度的通道注意力权重进行特征重标定。
- 大量实验表明,EPSANet可以在ImageNet和COCO数据集实现图像分类、目标检测和实例分割任务上的性能提升。
3.模型方法
SPANet:空间金字塔注意力网络
参考:Spanet: Spatial pyramid attention network for enhanced image recognition阅读笔记-CSDN博客
APNet:通过注意力金字塔进行行人重识别
题目:Person Re-identification via Attention Pyramid
(相似)
(失效)参考:顶刊TIP 2021!APNet:通过注意力金字塔进行行人重识别 - 知乎 (zhihu.com)
贡献
(1)我们提出了人ReID的注意力金字塔网络,该网络通过所提出的“拆分-参与-合并-堆栈”原理,在不同尺度上联合探索显著线索。(方法)
(2)我们为不同的注意力模块实现了我们的注意力金字塔框架,包括通道式和空间式。(效果)
(3)在实验中,我们的方法在有限的计算成本下取得了明显的改进,并且表现出了更好的泛化能力和鲁棒性。(实验)
Pyramid Feature Attention Network for Saliency detection
(相似)
PANet-图像复原的金字塔自注意力网络 | Pyramid Attention Networks for Image Restoration
参考:PANet-图像复原的金字塔自注意力网络 | Pyramid Attention Networks for Image Restoration_金字塔注意力网络-CSDN博客
Pyramid Attention Network for Semantic Segmentation
参考:金字塔注意力网络:一种利用底层像素与高级特征的语义分割网络 - 知乎 (zhihu.com)
Deep Pyramidal Pooling With Attention for Person Re-Identification带注意力的深度金字塔池化行人重识别
参考:(TIP-2020)带注意力的深度金字塔池化行人重识别 - 知乎 (zhihu.com)
三、分支注意力机制
PSA极化注意力机制:Polarized Self-Attention: Towards High-quality Pixel-wise Regression
DMSANet:双多尺度注意力机制
参考文章:CVPR 2021 | DMSANet:双多尺度注意力机制-CSDN博客
Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions
参考:超越CBAM,全新注意力机制!GAM:不计成本提高精度(附Pytorch实现) - 知乎 (zhihu.com)