map平均准确率_(三十七)通俗易懂理解——模型评价指标(混淆矩阵、目标检测AP与mAP、PR曲线)...

这个问题困扰我挺久,一度还理解错混淆矩阵的含义,每次记住一会没多久又忘了,而目标检测的AP与mAP问题又一直模模糊糊的,今天终于比较清晰地理解了,感谢网络上各网友无私而又丰富的知识分享。

混淆矩阵的定义

混淆矩阵(Confusion Matrix),它的本质远没有它的名字听上去那么拉风。矩阵,可以理解为就是一张表格,混淆矩阵其实就是一张表格而已。

以分类模型中最简单的二分类为例,对于这种问题,我们的模型最终需要判断样本的结果是0还是1,或者说是positive还是negative。

3f9b00efc40aede5b771f1fee0a04be7.png

TP: 将正类预测为正类数;TN: 将负类预测为负类数;

FP: 将负类预测为正类数(错报);FN: 将正类预测为负类数(漏报)。

此前一直要记混这4个词的含义,实际应该这么来记:

TP为例,意思是预测为P,即正类,结果为T,即正确,那么这个物体就真的为正类;FN为例,意思是预测为N,即负类,结果为F,即错误了,那么这个物体实际上就是正类;FP为例,意思是预测为P,即正类,结果为F,即错误了,那么这个物体实际上就是负类。

以上这么去看待,就几乎不会记混了。

准确率(Accuracy): ACC=(TP+TN)/(TP+TN+FP+FN)

TP+TN:预测为正类和预测为负类结果都对了的数量,相当于就是预测结果中,预测对了的数量。这个需要自己去体会一下。

精确率(Precision): P=TP/(TP+FP)(分类后的结果中正类的占比)

TP+FP:预测为正的数量。精确率就是说预测为正的数量当中,实际物体也是正类的比例。

召回率(Recall): R=TP/(TP+FN)(所有正例被分对的比例,也称灵敏度)

TP+FN:实际为正的数量。召回率就是说实际上为正的数量当中,被预测为正的数量比例。

特异度(Specificity):S=TN/(TN+FP)(所有负类被分对的比例)

F1 Score:F1=2PR/(P+R)

其中,P代表Precision,R代表Recall。

F1-Score指标综合了Precision与Recall的产出的结果。F1-Score的取值范围从0到1的,1代表模型的输出最好,0代表模型的输出结果最差。

混淆矩阵的实例

当分类问题是二分问题是,混淆矩阵可以用上面的方法计算。当分类的结果多于两种的时候,混淆矩阵同时适用。

一下面的混淆矩阵为例,我们的模型目的是为了预测样本是什么动物,这是我们的

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值