阅读论文:
Equalization loss for long-tailed object recognition
论文观点与表现:
- 每一个类的正样本能够被视为其他类别的负样本, 这样会导致尾部数据类别非常不佳的梯度。
- 通过忽视上述中的稀有类别的梯度,使得EQLoss在劣势中学习稀有类别信息。
降低了负样本梯度的影响,对比正常情况负样本累计梯度下降明显:
尾部类别的置信度分数相比原来也有不错的提升(头部类别相比变化不大,一小部分有所下降,但也有一小部分提升),说明网络能够有效的关注到尾部类别的分类:
实验原理:
- Softmax公式
- Sigmoid公式:
- EQL公式Sigmoid版本:
-
Wj表示为如下:
-
E(r)表示区分前后背景,如果是前景就为1,背景就为0。这里也可以认为是不是包含目标的特征点
-
fj 中j表示第j类在数据集中出现的频率,理解是 (第j类总数)/(总样本数)
-
T(fj) 是一个阈值函数,大于阈值就为0,小于阈值就为1
-
TR()表示的尾部类别所占的比例----- Tail Ratio
-
- EQL公式softmax版公式如下: