↑↑↑关注后"星标"Datawhale
每日干货 & 每月组队学习,不错过
Datawhale学术
作者:宋志龙,浙江工业大学,Datawhale成员
在目标检测中训练模型时,样本间往往有差异性,不能被简单地同等对待。这次介绍的论文提出了一种重要样本的关注机制,在训练过程中帮助模型分辨哪些是重要的样本,从而优化整个训练过程。
论文标题:Prime Sample Attention in Object Detection
论文链接:https://arxiv.org/pdf/1904.04821.pdf
后台回复“210717”可进目标检测群
背景
论文是基于anchor的目标检测中正负样本采样的。首先来一起回顾下整个过程。
以经典two-stage目标检测网络Faster-rcnn为例,如图所示,过程大致为:
图片输入经过backbone得到feature_map,
然后经过RPN网络得到proposal,
再将proposal进行1:3的正负样本的采样,
将采样后的正负样本送入rcnn阶段进行分类和回归。
图中蓝框区域就是本文要研究的内容:
问题分析
在这样一个正负样本采样阶段,目前主流的算法都是怎么做的?
Faster-rcnn,将采样后的正负样本直接送入rcnn阶段进行分类和回归;
ohem,将loss大的proposal视为难例,在采样的时候优先采样这些样本;
focal_loss,通过两个超参数调节不同难易程度样本的loss。
还有很多别的关于正负样本采样的研究,这里不一一列举,但是目前来看,大部分关于这部分的优化,都是想要去优化难例样本,也就是说,一个proposal在训练的时候贡献的loss越大,越需要去优化,但是这样真的是对的吗?或者说,对于模型来说,这些难例样本真的是最重要的吗?
这里我们举一个例子,看一下本文认为什么是重要的样本,