sklearn 绘制roc曲线_深度学习多种模型评估指标介绍 附sklearn实现

本文详细介绍了多种机器学习模型的评估指标,如准确率、精准率、召回率、F1-Score等,并重点讨论了ROC曲线和AUC值。ROC曲线展示了分类器的真正类率与负正类率之间的关系,AUC值则衡量了分类器区分正负样本的能力。在样本分布不平衡的情况下,ROC曲线能更好地保持稳定,优于PR曲线。
摘要由CSDN通过智能技术生成

1、准确率accuracy

预测正确的样本数/总样本数,但accuracy对于样本数据不均衡的问题来说不具有说服力,当样本不均衡时,准确率即是很高也不代表分类器效果好

fd7d4ff395039f81f0b1f768fd6d8fcc.png

#准确率from sklearn.metrics import accuracy_scorey_true = [2, 1, 0, 1, 2, 0]y_pred = [2, 0, 0, 1, 2, 1]accuracy_score(y_true, y_pred)   #总样本数6个,预测正确了4个,正确率:4/6

在介绍下面的评估指标时,先明白以下概念,在多类分类问题中,分类结果一般有4种情况:

(1) 属于类C的样本被正确分类到类C,记这一类样本数为 TP

(2) 不属于类C的样本被错误分类到类C,记这一类样本数为 FP

(3) 属于类别C的样本被错误分类到类C的其他类,记这一类样本数为 TN

(4) 不属于类别C的样本被正确分类到了类别C的其他类,记这一类样本数为 FN

2、精准率precision

预测为正样本中有多少是真正的正样本,精准率看的是预测为某一类的样本中有多少是真正属于这一类的,计算公式:

b5c2cb2e04e835c399cab47d6fa6cb3b.png

#精准率from sklearn.metrics import precision_scorey_true = [1, 1, 1, 1, 1, 0]y_pred = [1, 0, 0, 1, 1, 1]#精准率precision: y_pred预测出了四个正例,其中有三个为正例,精准率:3/4=0.75precision_score(y_true, y_pred)  

3、召回率recall

样本中的正例有多少被预测正确了,召回率看的是在分类任务中某一类样本是否完全被预测正确,计算公式:

82116506d6c78539985809a32e7aca85.png

#召回率from sklearn.metrics import recall_scorey_true = [1, 1, 1, 1, 1, 0]y_pred = [1, 0, 0, 1, 1, 1]#召回率recall:总共有五个正例,y_pred预测正确率3个正例,召回率:3/5=0.6recall_score(y_true, y_pred)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值