1.摘要
主要出发点:1.通用性,现有的方法对不同检测器通用性差;2.严重依赖于GT框,而忽略了不同实例之间的关系。作者提出的方法称为一般实例蒸馏(general instance distillation),其不考虑GT带来的正负区别。
作者认为将分类中蒸馏的方法直接用到检测中不行是因为检测中正负样本非常不平衡。[14]和[34]都是解决正负样本不平衡问题来解决蒸馏检测。但是,作者认为只用GT相关的区域来做蒸馏会忽视背景的潜在信息。因此,作者将一般实例(图像)作为蒸馏目标,结合了response-based、feature-based和relation-based三种方法来同时做蒸馏,让student模型效果超越了teacher模型,并且具有很强的通用性,可以应用于一阶段、两阶段、anchor-free方法。
2.Method
2.1实例选择
一个实例指的是一个预测结果。对student和teacher做蒸馏,就是要缩小他们之间的difference,作者用预测的类别分数差(L1距离)来表示这种差异,并选取teacher和student之间类别分数差很大的预测结果,取top k个。max0<c<C是因为每个预测结果会包含边界框结果和所有类别的结果,max表示直接选类别最高的分数来代表这个预测结果的P。第一个公式表示对实例r在相同类别预测结果中求差的最大值,第二个表示teacher和student谁的所有类别预测值中高,最选谁。然后在所有选出来的实例中进行0.3阈值的NMS,再取top k=10个实例来做后续的蒸馏。