[ICCV2019论文阅读]ACFNet: Attentional Class Feature Network for Semantic Segmentation

背景

语义分割领域现有的一些捕获更加丰富的上下文信息的方法都是关注于使用不同的空间策略,比如,Pyramid Pooling Module,Atrous Spatial Pyramid Pooling,还有Global Average Pooling。

 这些方法的问题是在于利用这些空间内的像素位置的激活值的时候,没有区分像素来自那个类别,无论像素来自哪个类别,周围不同类别的激活对象对上下文的贡献都是相同的,这可能会使像素难以确定它属于哪个类别。

本文提出class center的概念用来描述图像上每个类别的一个全局性的表征,每个标签类的class center都聚合了属于该类别像素位置的所有特征。该方法与上面所提到的方法的不同之处在于,上面的方法关注利用的是空间上下文信息,而该方法利用的是类别上下文信息。

要利用每个类别的上下文信息,就要直到所有像素位置属于哪个类别,这在训练时是没有问题的,因为有Ground Truth,但是在测试的时候即实际应用时,没有Ground Truth,要如何来获得每个像素位置的类别信息呢???没有条件,就需要创造条件,很自然而然地想到可以先进行一次粗分割得到一个粗略的预测图,在利用该预测图来计算近似的class center,后面再利用class center实现精细的分割。

方法

1.Class Center

CCB:Class Center Block

类别i的Class Center:属于类别i的所有像素的平均特征(特征图上的平均响应值)

理论:在label上计算

类别i的class center=(label上类别i在每个通道上对应位置预测值累加和)/(label上类别i的像素个数) 

实际:在粗分割图P_{coarse}\in \mathbb{R}^{N*H*W}和特征图F\in\mathbb{R}^{C*H*W}上计算,先将P_{coarse}的维度reshape成\mathbb{R}^{N*HW},使用1*1卷积减少F的通道数然后reshape得到F^{'}\in\mathbb{R}^{C^{'}*HW}

 Class Center的两个好处

  1. 每个类别的class center都表达了该类别的全局信息,在训练时可以帮助模型学习到每个类别之间的鉴别力的特征
  2. class center可以帮助检查一个像素与每个类别的class center之间的一致性,通过引入class center,模型可以纠正一些之前被错分的case

           

2.Attentional Class Feature

CAB:Class Attention Block

直接使用粗分割图作为attention map,再利用class center来计算得到attention class featureF_{a}

然后后面再跟着一个1*1的卷积,细化计算得到的特征

3.Attentional Class Feature Network

Loss Function:三项辅助监督损失l_{a},粗分割损失l_{c},精细分割损失l_{f}

 

 

 

 

 

 

 

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值