NMS
1.只用于预测,不用于训练;
2.在每一类的所有box中进行筛选;
3.IOU太大则被删除。
公式:
Soft-NMS
1.不要直接地删除所有IOU大于阈值的框,而是降低其置信度;
2.分数降低常用两种方法:线性法和高斯法。
线性法:
M为当前得分最高框,bi 为待处理框,bi 和M的IOU越大,bi 的得分si 就下降的越厉害(而不是直接置零)。但该式并不是一个连续的函数,当一个边框与M的IoU超过阈值Nt时,其得分会发生跳变,这种跳变会对检测结果产生较大的波动。
高斯法:
基于学习的算法
上述算法仍会存在如下问题:
1.只依赖分类得分,可能会筛选出box分高但是位置不太准的边框;
2.对于一个真实物体,当所有的预测边框都不准时,该如何选择?
以下方法能提升定位准确度:
Softer-NMS
1.新增加了一个定位置信度的预测,使得高分类置信度的边框位置变得更加准确;
2.提出了一种基于KL(Kullback- Leibler)散度的边框回归损失函数KL loss。
IOU-Net
1.增加了一个 IoU分支,其能预测检测到的边界框和它们对应的真实目标框之间的 IoU;
2.引入了精准池化层(Pr池化),代替了POIpooling;
3.引入定位置信度。