目标检测重要评价指标——mAP的含义及计算

目标检测常见评价指标

1. 公开数据集

评价标准:pascal voc, coco,目前基本都在使用coco数据集。

2.评价指标

mAP: mean Average Precision, 即所有类别AP的平均值。下面将介绍相关参数含义。

理论知识

TP(True Positive):与目标框(ground truth) IoU>0.5的检测框数量 (同一个Ground Truth 只计算一次)

FP(False Positive):与目标框 IoU<=0.5的检测框(或者说是除了最终作为输出结果的框,其余所有网络输出的框)

FN(False Negative): 没有被检测到的真实目标框(ground_truth)的数量

Precision(查准率): TP/(TP + FP)即:所有预测正确的框,与所有预测出来的框(网络最终输出的全部预测框)的比例

Recall(召回率/查全率):TP/(TP + FN) 即:所有预测正确的框,与所有真实框(ground truth)的比例

P-R曲线:Precision-Recall 曲线,一般来说Precision和Recall一个变大,另一个就会变小,我们以Recall为横坐标,Precision为纵坐标做图如下:
在这里插入图片描述
AP: P,和R单独出现时均不能完整的表征网络的预测效果, 我们希望的是P和R同时为较大的值,也就是希望PR曲线与坐标轴围成的面积更大。由此得到AP的概念,即PR曲线与坐标轴围成的面积.😛

一个类AP计算方法

  1. 将一张图片中预测到的框,按照confidence由大到小排序:
    在这里插入图片描述

  2. 依次选择前一个,前两个,前三个…(依次减小confidence阈值,没有达到阈值的框认为是没有检测到物体的,当作FN)去计算Precision和Recall。例如我们把confidence限定为0.89,通过表格我们可以发现仅有两个框可以认定为TP, 无FP, 一共检测到7个框,所以剩下的五个均为FN。即Precision=2/(2+0)=1.0;Recall=2/(2+5)=0.28

    在这里插入图片描述

  3. 画PR曲线,计算曲线下方面积:

    计算面积时需要先去掉Recall重复的部分(因为要以Recall为x轴)。得到下一步的表格后,AP也可通过公式计算如下,*(第n项Recall - 第n-1项Recall)从n项起往下的最大Precision(n=1时n-1项Recall取0)

由此得到各类的AP值,取平均即可以得到mAP。

3. COCO评价指标

在这里插入图片描述

COCO较为主要的评价指标为第一项,其含义为在IoU=0.5~0.95间隔0.05, 一共10个IoU阈值下各类AP的均值,再求10个mAP的均值。

其他各项评价指标需要根据数据集和实际应用场景判断,用哪个取主要评价模型的好坏。例如当模型主要检测小物体时, A P s a m l l AP^{samll} APsamll就表示针对小面积的目标检测,含义为 a r e a < 3 2 2 area<32^{2} area<322的物体检测结果的mAP.

Average Recall

A R m a x = 10 AR^{max=10} ARmax=10 : 每张图片最多10个预测边界框时,其相应的Recall值。

Across Recall

不同目标尺度AR的值。

4. 扩展
4.1 在分类任务中recall和precision指标

在分类任务中recall(查全率)表示所有预测正确的正样本占实际正样本的比例precision(查准率)表示所有预测正确的正样本占所有预测出的正样本的比例。我们以一个二分类的输出pred和target为例:

pred = [0, 1, 0, 1, 0]
target = [0, 1, 1, 1, 0]
### metrics
recall = 2 / 3
precision = 2 / 2
  • 8
    点赞
  • 68
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
目标检测中的AP(Average Precision)是一种常用的评价指标,用于衡量目标检测算法在不同类别上的性能。AP的计算方式根据不同的数据集和评价方法可能会有所不同,这里我给出一种常见的计算方式。 首先,需要明确几个概念: - TP(True Positive):检测到的目标被正确地分类为正样本(目标存在)。 - FP(False Positive):检测到的目标被错误地分类为正样本(目标不存在)。 - Precision(精确率):TP与(TP + FP)的比值,表示正确分类为正样本的概率。 - Recall(召回率):TP与(TP + FN)的比值,表示正样本被正确检测出的概率。 - FN(False Negative):目标未被检测到,即目标存在但被错误地分类为负样本(目标不存在)。 AP的计算步骤如下: 1. 对于每个类别,首先按照预测结果的置信度进行排序。 2. 从置信度最高的预测开始,依次计算Precision和Recall,并绘制Precision-Recall曲线。 3. 通过计算Precision-Recall曲线下的面积(AUC),得到AP值。 AP值越高,表示目标检测算法在对应类别上的性能越好。同时,AP值还可以通过计算多个类别的平均值得到mAP(mean Average Precision),用于综合评估目标检测算法的性能。 需要注意的是,不同数据集和评价方法可能会对AP的计算方式有所调整,因此具体的计算公式可能会有所差异。以上是一种常见的计算方式的解释。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值