目录
非极大值抑制(Non-Maximum Suppression,NMS)
评价指标
IOU:
Precison:描述查找一个目标的精准率。
Recall:描述查找一个目标的漏检率。
将被正确识别的目标,称为True positives(TP)。将被正确识别的背景称为True negatives(TN)。(正确识别为背景即没有框)。定义被错误识别为目标的背景为False positives(FP)。被错误识别为背景的目标称为False negatives(FN)
Precision=TP/(TP+FP) 所有识别为目标的框中,正确框的概率
Recall=TP/(TP+FN) 所有目标(ground truth)中被正确识别的概率
Accuracy=(TP+TN)/(TP+FN+TN+FT) 所有检测中,正确识别目标及背景的概率
mAP:
AP:
F1:
非极大值抑制(Non-Maximum Suppression,NMS)
(1) 绝大部分目标检测器的核心是分类器,即给定一个尺寸固定图片,分类器判断是不是目标;
(2)将分类器进化为检测器的关键是:在原始图像上从多个尺度产生窗口,并resize到固定尺寸,然后送给分类器做判断。
最常用的方法是滑动窗口-》非极大值抑制NMS,抑制冗余框-》一个object只保留一个最优的框
(1)将所有框的得分排序,选中最高分及其对应的框
(2)遍历其余的框,如果和当前最高分框的重叠面积(IOU)大于一定阈值,我们就将框删除。
(3)从未处理的框中继续选一个得分最高的,重复上述过程。
Soft-NMS:
适用于同类别互相遮挡、重合的情况,其实非常简单。
NMS公式如下:
NMS缺点:
显而易见,NMS容易将被遮挡的同类别物体抑制掉。图中两匹马,但是预测得到的两个框重合度比较大,即IOU较大,在NMS算法下,绿色框的置信度被置0,从而被抑制掉。
Soft-NMS公式如下:
线性:
Soft-NMS根据两个框的IOU值来减小重叠框的置信度,而不是直接置0(就是再给他一个机会咯,不一棒子打死)。
上面公式是分段函数,在Nt时会发生突变,导致置信度有断层,因此作者又提出用高斯函数,平滑置信度变化。就是下面这个公式。
实验结果:(然并卵,两个公式基本没有差异)
Soft-NMS在two-stage方法如RCNN系列中的提升较大,在One-stage方法如YOLO,SSD 中提升较小(作者论文中提到对于SSD,YOLOv2仅提升0.5左右)。因为two-stage中产生大量region proposal,soft-nms有较大的提升空间。
将Soft-nms用在YOLOv3中进行测试(待续)