Fine-grained Recognition: Accounting for Subtle Differences between Similar Classes

思维导图
在这里插入图片描述
这篇文章关注的是细粒度识别题目中相似类之间的细微差别的问题。由题目就可以看出论文的两个重点:

  1. Subtle Differences
  2. Similar Classes
    而本文的贡献也是主要在于解决这个问题,如下:
  3. diversification block
  4. gradient-boosting loss
    在这里插入图片描述
    上图中的第2行是一般的细粒式识别网络的attention map,最后一行是本文网络的attention map,可以看到对于本文来说,不仅仅是只关注于对梯度贡献最有效的位置,还有一些其他的相关区域。如对鸟来说,头部是一个区分不同类别鸟类的关键位置,但是尾巴、羽毛等也有很多的相关信息。Diversification Block就是来解决这个问题的。

符号定义:
I I I是训练的图像,其对应的ground-truth label l ∈ J J = 1 , 2 , . . . , C l\in J J={1,2,...,C} lJJ=1,2,...,C是包含所有标签的标签集, M ∈ R C × H × W M\in R^{C\times H\times W} MRC×H×W是Diversification Block的输入,是特定的类别的activation map, M = M c : c ∈ [ 1 , C ] M={M_c:c\in[1,C]} M=Mc:c[1,C],其中 M c ∈ R H × W M_c\in \Bbb{R}^{H\times W} McRH×W是对应第c个类比的单独的activation map, H H H W W W是output activation maps的高和宽。

Diversification Block

这个模块的核心的想法是使用Mask图抑制(suppress)显著性最强的区域,迫使网络学习其他部位。
那么现在的问题就产生了,

  1. Where to suppress information?
  2. How to suppress?

Mask Generation
B = B c : c ∈ [

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值