看本文之前,需要搞明白
1)机器学习中的正样本(positive examples),负样本(negative examples),难分样本(hard examples),难例挖掘(hard examples mining)这些基本概念。
参考另一篇博客
2)什么是class imbalance(类不平衡问题)?
当我们做object detection的时候,一张图片事先有很多的candidate locations (候选框),但是很多时候只有部分的候选框中包含了物体,那些不包含物体的候选框占了大多数,这就是不平衡性。loss function中,这些正样本(包含物体的候选框)和负样本(不包含物体)是同等对待的,这样类的不平衡性也导致了loss function的不准确行。
本文主要提出了一种新的网络架构RetinaNet 和 一种新的Loss Function。但是作者声明实验效果之所以好的原因是提出了新的loss function。
实验中,作者也比较了已有的各种样本选择方式:
1)按照class的比例加权重:最常用的处理类别不平衡问题的方式
2)OHEM:只保留loss最高的那些样本,完全忽略了简单样本(易分类的样本,与难分样本相对)
3)OHEM + 按class比例 sample:在OHEM的基础上,再保证正负样本比例1:3