Pyramid Attention Network for Semantic Segmentation

论文地址:https://arxiv.org/pdf/1805.10180.pdf
代码地址(?):https://github.com/xgmiao/Pyramid-Attention-Networks
摘要:
提出金字塔注意网络(PAN)来利用全局语境信息在语义分割中的影响,结合注意机制和空间金字塔来提取精确的像素标注密集特征,而不是使用复杂的扩散卷积和人工设计的解码器网络。
引入了一个Feature Pyramid Attention模块,用于在高级特征上执行空间金字塔注意结构,并结合全局池以学习更好的特征表示,并在每个解码器层上提供全局注意Upsample模块,以提供全局上下文作为指导用于选择类别局部化细节的低级特征。

1 引言

FCN:对small parts预测不好
问题(1):多尺度物体的存在导致分类困难
在ASPP(Atrous Spatial Pyramid Pooling)模块中,扩散卷积是一种稀疏计算,可能导致网格伪影(grid artifacts)。 PSPNet中提出的金字塔池化模块可能会丢失像素级局部信息。

FPA模块从CNN中提取的高级特征提取精确的像素级关注,能够增加感受野并有效地分类小物体。
问题(2):high-level features are skilled in making category classification, while weak in restructuring original resolution binary prediction.
(a decoder module)Global Attention Upsample(GAU),
which can extract global context of high-level features as guidance to weight low-level feature
information.(以前的就是use low-level information to help
high-level features recover images detail)

2. 方法
在这里插入图片描述
在这里插入图片描述
(不同尺度的注意力加起来*原始特征图+channel注意力)
在这里插入图片描述
(低级特征的细节+高级特征的类别)
the main character of decoder module is to repair category pixel localization.high-level features with abundant category information can be used to weight low-level information to select precise resolution details.

3. 实验
replace the 7x7 convolutional layer in the original ResNet-101 by three 33 convolutional layers.
We adopt randomly left-right flipping and random scaling between 0.5 and 2 for all datasets during training.
数据增强
通过消融实验对各个细节进行选择,pooling type、pyramid structure、kernel size、global pooling

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值