[机器学习]机器学习性能评价指标

在这里插入图片描述

回归:

1.平均绝对误差MAE(Mean Absloute Error)又被称作l1范数损失(l1-norm loss):
M A E ( y , y ^ ) = 1 n s a m p l e s ∑ i = 1 n s a m p l e s ∣ y i − y ^ i ∣ {\rm MAE}(y, \hat{y})=\frac{1}{n_{\rm samples}}\sum\limits_{i=1}^{n_{\rm samples}}|y_i-\hat{y}_i| MAE(y,y^)=nsamples1i=1nsamplesyiy^i

2.平均平方误差 MSE(Mean Squared Error)又被称为 l2 范数损失(l2-norm loss):
M S E ( y , y ^ ) = 1 n s a m p l e s ∑ i = 1 n s a m p l e s ( y i − y ^ i ) 2 {\rm MSE}(y, \hat{y})=\frac{1}{n_{\rm samples}}\sum\limits_{i=1}^{n_{\rm samples}}(y_i-\hat{y}_i)^2 MSE(y,y^)=nsamples1i=1nsamples(yiy^i)2

-----------------------------------------------------------------------------------------------------

分类:

混淆矩阵

TP: 你认为是对的,确实是对的
TN: 你认为是错的,确实是错的
FN: 你认为是对的,其实是错的
FP: 你认为是错的,其实是对的

在这里插入图片描述

精确率(precision)定义为(也叫查准率,找出来中正确的/找出来的所有):

(1) P = T P T P + F P P = \frac{TP}{TP+FP} \tag{1} P=TP+FPTP(1)

需要注意的是精确率(precision)和准确率(accuracy)是不一样的,
A C C = T P + T N T P + T N + F P + F N ACC = \frac{TP + TN}{TP+TN+FP+FN} ACC=TP+TN+FP+FNTP+TN
(在正负样本不平衡的情况下,准确率这个评价指标有很大的缺陷。比如一个不平衡的样本数据集,正例990个,负例10个.一个模型什么也不做直接输出是正例,那么准确率也有99%,所以没有什么意义)

召回率(recall,sensitivity,true positive rate)定义为:(也叫查全率.找出来中正确的/所有正确的)

(2) R = T P T P + F N R = \frac{TP}{TP+FN} \tag{2} R=TP+FNTP(2)

此外,还有 F1 值,是精确率和召回率的调和均值.

在这里插入图片描述

精确率和准确率都高的情况下,F1 值也会高

ROC 曲线

我们先来看下维基百科的定义,

In signal detection theory, a receiver operating characteristic (ROC), or simply ROC curve, is a graphical plot which illustrates the performance of a binary classifier system as its discrimination threshold is varied.

比如在逻辑回归里面,我们会设一个阈值,大于这个值的为正类,小于这个值为负类。如果我们减小这个阀值,那么更多的样本会被识别为正类。这会提高正类的识别率,但同时也会使得更多的负类被错误识别为正类。为了形象化这一变化,在此引入 ROC ,ROC 曲线可以用于评价一个分类器好坏。

ROC 关注两个指标,

在这里插入图片描述

直观上,TPR 代表能将正例分对的概率,FPR 代表将负例错分为正例的概率。在 ROC 空间中,每个点的横坐标是 FPR,纵坐标是 TPR,这也就描绘了分类器在 TP(真正率)和 FP(假正率)间的 trade-off2。

在这里插入图片描述

AUC

AUC(Area Under Curve)被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。

The AUC value is equivalent to the probability that a randomly chosen positive example is ranked higher than a randomly chosen negative example.

翻译过来就是,随机挑选一个正样本以及一个负样本,分类器判定正样本的值高于负样本的概率就是 AUC 值。

简单说:AUC值越大的分类器,正确率越高.

AUC=1
,完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。绝大多数预测的场合,不存在完美分类器。

0.5<AUC<1
,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。

AUC=0.5
,跟随机猜测一样(例:丢铜板),模型没有预测价值。

AUC<0.5
,比随机猜测还差;但只要总是反预测而行,就优于随机猜测,因此不存在 AUC<0.5 的情况。

在这里插入图片描述
既然已经这么多评价标准,为什么还要使用ROC和AUC呢?因为ROC曲线有个很好的特性:当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。在实际的数据集中经常会出现类不平衡(class imbalance)现象,即负样本比正样本多很多(或者相反)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值