Semantic segmentation with reverse attention阅读笔记

BMVC 2017
Qin Huang, Chunyang Xia, Chihao Wu, Siyang Li, Ye Wang, Yuhang Song, C.-C. Jay Kuo
论文地址

一、简介

提出了一种反向关注网络(RAN),该网络捕获与目标类无关的内容。

RAN使用两个单独的分支来学习特征并生成分别与目标类相关联的预测。为了进一步突出从反向学习的知识,我们设计了反向关注结构,它产生每类掩码,以放大困惑区域中的反向响应。

此前没有专门训练网络以学习类之间的差异,模型对两个类都有较高的响应。对象与背景的复杂混合,网络对目标的响应较弱。

二、方法

在这里插入图片描述

2.1 动机

在这里插入图片描述

我们使用猫狗的图片来进行解释。如Fig2所示,狗在圆圈区域中的下半身被错误的分类为猫的一部分。为了解释这种现象,我们分别显示了狗和猫的热图(即相应的滤波器响应)。事实证明,两个分类器在圆圈区域都产生了高响应,这些令人困惑的区域可以轻易出现分类错误。

对最后一层卷积层的滤波器进行归一化,显示高于阈值的滤波器,对于2048个滤波器只有约20个滤波器对狗和猫具有高响应。其中,红色表示对狗和猫具有高响应,则紫色表示对狗具有高响应,深棕色表示对猫具有高响应。显然,对多个对象具有高响应的滤波器再识别底层对象类方面是不太有用的。

FCN未对困惑类之间的区别进行学习,如果我们可以让网络学习到这令人困惑的区域不是猫的一部分,这可以获得更高性能的网络。这种策略叫做反向关注学习,可能有助于更好的辨别混淆类,并更好的理解图像中的背景上下文信息。

3.2 RAN

在这里插入图片描述

为了提高FCN的性能,我们提出了反向关注网络(RAN)。

Reverse Branch:

反向分支用来学习反向对象类,是对象关注的反向ground truth。得到的是背景和其他类。

Neg块用于反转所有类的标签,因为反向学习会使类的标签也反向。

Reverse Attention Branch:

将原始和反向分支的结果进行融合的一个最简单方法是直接从原始预测中减去反向预测。实际上就是发现原始预测与反向预测之间的差异。例如狗的下半部分给了狗和猫的强烈响应,同一区域将未猫提供强烈的负响应,而对狗的响应为零,然后这两个分支组合将减少对猫的响应,同时保留对狗的响应。

然后上述这种方法缺少良好的表现,因此我们提出了反向关注结构,以进一步突出最初忽略的区域,包括混淆和背景。

反向关注分支将抑制高响应的区域。

三、实验

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ma lidong

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值