Squeeze-and-Attention Networks for Semantic Segmentation解读

最近将注意力机制整合到分割任务通过强调特征里面的信息中来提升模型的表征能力。但是这些注意力机制忽略了一个暗含的分割子任务并且被卷积核的方格型形状所限制。我们提出了一个新颖的压缩注意力网络(SANet)结构,利用了一个高效的压缩注意力(SA)模型去计算两个分割图突出的特征:1)分组像素注意 2)像素级预测。特别指出,我们提出的压缩注意力模型通过引入注意力卷积通道在常规卷积上加了像素组注意力,所以以有效的方式引入一个空间-通道相互依赖。最终的分割结果由网络输出和四个阶段的多尺度上下文目标像素级预测增强融合所得。我们的SANEet在coco数据集上取得83.2%的精度,在PASCAL取得54.4%的精度。

图1 分割任务两个子任务,一个是像素级的分类,即每个像素都要预测一个标签,一个是像素分组,即预测哪些像素为一组

以前的工作:

1)多尺度上下文,一般包含金字塔或者多尺度通道,通过融合多尺度的上下文信息达到增强分割的目的。一个聚集激活模型被提出通过长范围的上下文信息来缓解普通卷积的特征的位置限制。我们的方法用融合主干残差网络不同阶段的输出来提高稠密连接的多尺度预测。

2)通道注意力,一般

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值