深度学习之常用模型评估指标(一)—— 分类问题和目标检测

深度学习入门小菜鸟,希望像做笔记记录自己学的东西,也希望能帮助到同样入门的人,更希望大佬们帮忙纠错啦~侵权立删。

如何评价这个模型对解决你这个问题的“可用”程度,这需要对模型进行测量和评估。每个模型都有他的特别之处,并随因素变化而表现不同,因此需要选择合适的评估指标来进行评定。

目录

一、混淆矩阵

二、准确率(正确率)—— Accuracy

三、精确率(查准率)—— Precision

四、召回率(查全率)—— Recall

1、公式

2、意义

3、精确率和召回率的关系

五、PR曲线 & AP & mAP & BEP & F1-score

1、含义解析

2、AP —— 针对某一类别

3、mAP —— 目标检测算法中最重要的一个指标。

4、BEP

5、F1-score

六、ROC & AUC

1、灵敏度/真正率/召回率(TPR),特异度和假正率(FPR)

2、ROC(接受者操作特征曲线)

3、AUC(曲线下的面积)

七、IOU

八、如何选择评估指标


一、混淆矩阵

下表就是著名的混淆矩阵(真·混淆bushi)

actual positiveactual negative
predicted positiveTPFP
predicted negativeFNTN

🎈我们先一个一个字母来:

T 表示本次预测结果正确;F 表示本次预测结果错误
P表示判为正例;N 表示判为负例

🎈让我们把字母匹配起来

TP:本次预测为正例(P),而且这次预测是对的(T)

FP:本次预测为正例(P),而且这次预测是错的(F)

TN:本次预测为负例(N),而且这次预测是对的(T)

FP:本次预测为负例(N),而且这次预测是错的(F)

🎈举个栗子吧,比如说正例代表核酸检测阳性(P);负例代表核酸检测阴性(N)

那么TP代表的就是检测出来是阳性并且这一次判断是正确的,FP代表的就是检测出来是阳性并且这一次判断是错误的,TN代表的就是检测出来是阴性并且这一次判断是正确的,FP代表的就是检测出来是阴性并且这一次判断是错误的。

🎈很显然:TP+FP+TN+FN=样本总数


二、准确率(正确率)—— Accuracy

🌳由上面的混淆矩阵得出公式

\text { accuracy }=\frac{T P+T N}{T P+F P+F N+T N}

🌳表示的意义是:所有预测中正确的百分比

🌳虽然准确率可以判断总的正确率,但是在样本不平衡的情况下,并不能作为很好的指标来衡量结果。

比如说P占了总样本量的99.9%,N占0.01%,如果我们毫无逻辑地全部判定为P,那么准确率将高达99.9%,但是实际上我们的模型只是无脑地全部判定为P,所以准确率在样本类别占比不平衡时衡量结果的效果并不好。


三、精确率(查准率)—— Precision

🌳由上面的混淆矩阵得出公式

precision=\frac{T P}{T P+F P}

🌳表示的意义是:在所有判定为P的样本中判定正确的百分比(代表对正样本结果中的预测准确程度)


四、召回率(查全率)—— Recall

1、公式

由上面的混淆矩阵得出公式

Recall=\frac{T P}{T P+F N}

2、意义

表示的意义是:实际为正(P)的样本中被预测为正(P)样本的概率

召回率越高,实际为正(P)被预测出来的概率越高,类似于“宁可错杀一千,绝不放过一个”。

3、精确率和召回率的关系

🌳他们是一对矛盾的度量。一般来说,精确率高时,召回率会偏低;而召回率高时,精确率会偏低。

🌳通常只有在一些简单任务中,才可能使精确率和召回率都很高。

怎么理解呢?举个栗子:(P为好果子,N为烂果子)

如果想要把好果子(P)的尽可能多地选出来,那么我们可以通过增加判断为好果子的数量(增加判定为P的数量)来实现。

极端情况:如果我们将所有果子都选上了(全部都判定为好果子),那么所有好果子(P)也会被选上,但这样精确率就会变低(公式中的FP变大导致),但此时FN为0,所以召回率为1(实现了要把好果子(P)的尽可能多地选出来);

如果希望选出的果子(判定为P)中好果子的比例尽可能高(即精确率尽可能高),那就只选最有把握的好果子(减少判定为P的数量,降低它的分母),但这样难免会漏掉不少好果子(FN变大),导致召回率较低(分母大了)。


五、PR曲线 & AP & mAP & BEP & F1-score

1、含义解析

🌳P代表的是precision(精准率),R代表的是recall(召回率),其代表的是精准率与召回率的关系,一般情况下,将recall设置为横坐标,precision设置为纵坐标。

🌳在进行比较时,若一个模型的PR曲线被另一个模型的曲线完全包住,则说明后者的性能优于前者,比如上图中A优于C。

🌳A Vs B:因为AB两条曲线交叉了,所以难以比较,这时比较合理的判据就是比较PR曲线下的面积,该指标在一定程度上表征了该模型在精确率和召回率上取得相对“双高”的比例。

2、AP —— 针对某一类别

PR曲线下面的面积,通常来说一个越好的模型,AP值越高

3、mAP —— 目标检测算法中最重要的一个指标。

mAP是多个类别AP的平均值(即从类别的维度对 AP 进行平均):对每个类的AP再求平均,得到的就是mAP的值

取值:[0,1]

同样的值越大越好

4、BEP

因为算这个曲线的面积(AP)不容易,所以人们引入了平衡点”(BEP)来度量

BEP:表示精确率=召回率时的取值,值越大表明该模型性能越好(所以A比B好)

但是BEP还是过于简单,所以更常用的是F1度量(F1-score)

5、F1-score

公式如下:

F 1=\frac{1}{\frac{1}{Precision}+\frac{1}{Recall}}=\frac{2 \times Precision \times Recall}{Precision+Recall}

F1越大性能越好。


六、ROC & AUC

1、灵敏度/真正率/召回率(TPR),特异度和假正率(FPR)

公式如下

T P R=\frac{T P}{T P+F N}

特异度:\text { Specificity }=T N /(F P+T N)

因为我们所关心的是正样本(P),所以需要查看有多少负样本(N)被错误预测为正样本(P),因此我们更常用的是假正率(即1 - 特异度)

假正率:

FPR=1 \text { - specificity }=1-T N /(F P+T N)=F P /(F P+T N)

TPR表示模型预测响应的覆盖程度,而FPR表示模型虚报的响应程度。

可以从公式中看出他们所代表的意义

他们都是以实际是正还是负的角度看概率的(实际是P还是N),因此无论样本种类比例分布平不平衡,都不会有影响

2、ROC(接受者操作特征曲线)

🌳其中横坐标为假正率(FPR),纵坐标为真正率(TPR)

🌳那ROC曲线该怎么画呢?

举个栗子

样本序号实际类别判断是P的概率
1P0.3
2N0.5
3P0.6
4P0.4

我们依次将“Score”值作为阈值threshold,当测试样本属于正样本的概率大于或等于这个threshold时,我们认为它为正样本,否则为负样本。然后以此来计算对应的TPR和FPR,然后绘图即可。

🌳TPR 越高,同时 FPR 越低(即 ROC 曲线越陡),那么模型的性能就越好

3、AUC(曲线下的面积)

AUC是ROC曲线下的面积,介于0.1和1之间。

它作为数值可以用来直观评价模型的好坏,值越大越好。


七、IOU

🌳IOU是交并比,在这里是指预测的物体框框和真实的物体框框的交集的面积与并集的面积之比。

🌳IOU_Loss是根据IOU的损失函数:IOU_Loss = 1 - IOU

但是它存在一些缺点:

(1)如果你的预测框和真实框完全不重合,那么你的IOU为0,没有办法呈现出你的预测框距离真实框有多远,损失函数不可导,导致无法进行优化。

(2)可能出现两个IOU一样,对应的2个框框的面积也一样,但是相交情况完全不一样,那么IOU_Loss将无法区分他们相交的不同。


八、如何选择评估指标

结合实际情况来进行选择,对问题的倾向有所侧重

比如说要预测火灾的发生

每次火灾我们都希望能预测出来,即召回率要高,可以尽可能地牺牲精确率来实现。就是说宁愿误报也要把尽可能地每次实际火灾预测出来。


欢迎大家在评论区批评指正,谢谢大家~

  • 7
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

tt丫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值