机器学习(一)~模型评估与选择 之 *性能度量

机器学习(一)~模型评估与选择 之 *性能度量

1.错误率与精度

错误率和精度是分类任务中最常用的两种性能度量,既适用于二分类也适用于多分类

错误率(error rate):分类错误的样本数占样本总数的比例

精确率(accuracy):1 - 错误率

例如:当损失函数是0-1损失时,测试误差/错误率etest 和精确率rtest 为:
测试误差/错误率
在这里插入图片描述
精度
在这里插入图片描述
显然,etest + rtest = 1

2.查准率、查全率与F1

错误率和精度虽常用,并不能满足所有任务需求,例如想知道挑出的多少瓜是好瓜/推荐的信息有多少用户感兴趣?

对于二分类问题,将预测的各种可能情况列出分析:
在这里插入图片描述
查准率/准确率(Precision): 挑出的瓜有多少好瓜 / 推荐的信息有多少用户感兴趣?
在这里插入图片描述
查全率/召回率(Recall-rate): 用户感兴趣的信息有多少被检索出来 / 好瓜是否被全部挑出来?
在这里插入图片描述

  • 查准率和查全率是一对矛盾的度量,一般查准率高时,查全率低;查全率高时,查准率低
  • P-R曲线是指查准率-查全率曲线,如图:
    在这里插入图片描述
  • 在进行比较时,若一个学习器的P-R曲线被另一个学习器的曲线完全包住,则后者性能优于前者,A优于C;
  • A与B难度量,一种方式是”平衡点“度量法(BEP),即当查准率=查全率的值,图中BEPA=0.805 > BEPB=0.73, A优于B
  • 常用F1度量(P和R的调和平均):
    在这里插入图片描述
  • 当进行多次二分类训练时会得到多个二分类混淆矩阵,为求全局P和R,则有宏查准率(计算每个混淆矩阵的P求平均)和微查准率(分别计算所有矩阵的TP、FP、TN、FN总和求平均TP、FP、TN、FN,再计算查准率)

3.ROC与AUC

真正例率(正例中有多少被预测出来了):TPR=TP/(TP+FN)
假正例率(反例中有多少被预测成了正例):FPR=FP/(FP+TN)
在这里插入图片描述
同P-R曲线,在进行比较时,若一个学习器的ROC曲线被另一个学习器的曲线完全包住,则后者性能优于前者;有交叉则难度量,常用AUC度量,即计算曲线下方的面积和
在这里插入图片描述

  • 预测结果的排序损失lrank:对预测结果凡是f(x+)<f(x-)的处相应罚分,对f(x+)=f(x-)的处0.5罚分

  • lrank对应的是ROC曲线之上的面积,AUC=1-lrank

  • 缺点:ROC曲线没有考虑不同错误造成的不同后果,此时应该考虑最小化”总体代价“而不是错误次数,代价敏感曲线解决了这一问题,加入了不同错误的代价系数,相当于对损失函数加权

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值