思维导图
这篇文章关注的是细粒度识别题目中相似类之间的细微差别的问题。由题目就可以看出论文的两个重点:
- Subtle Differences
- Similar Classes
而本文的贡献也是主要在于解决这个问题,如下: - diversification block
- gradient-boosting loss
上图中的第2行是一般的细粒式识别网络的attention map,最后一行是本文网络的attention map,可以看到对于本文来说,不仅仅是只关注于对梯度贡献最有效的位置,还有一些其他的相关区域。如对鸟来说,头部是一个区分不同类别鸟类的关键位置,但是尾巴、羽毛等也有很多的相关信息。Diversification Block就是来解决这个问题的。
符号定义:
I I I是训练的图像,其对应的ground-truth label l ∈ J J = 1 , 2 , . . . , C l\in J J={1,2,...,C} l∈JJ=1,2,...,C是包含所有标签的标签集, M ∈ R C × H × W M\in R^{C\times H\times W} M∈RC×H×W是Diversification Block的输入,是特定的类别的activation map, M = M c : c ∈ [ 1 , C ] M={M_c:c\in[1,C]} M=Mc:c∈[1,C],其中 M c ∈ R H × W M_c\in \Bbb{R}^{H\times W} Mc∈RH×W是对应第c个类比的单独的activation map, H H H和 W W W是output activation maps的高和宽。
Diversification Block
这个模块的核心的想法是使用Mask图抑制(suppress)显著性最强的区域,迫使网络学习其他部位。
那么现在的问题就产生了,
- Where to suppress information?
- How to suppress?
Mask Generation
B = B c : c ∈ [