auc曲线 python,ROC曲线、AUC、Precision、Recall、F-measure理解及Python实现

本文首先从整体上介绍ROC曲线、AUC、Precision、Recall以及F-measure,然后介绍上述这些评价指标的有趣特性,最后给出ROC曲线的一个Python实现示例。

一、ROC曲线、AUC、Precision、Recall以及F-measure

二分类问题的预测结果可能正确,也可能不正确。结果正确存在两种可能:原本对的预测为对,原本错的预测为错;结果错误也存在两种可能:原本对的预测为错,原本错的预测为对,如Fig 1左侧所示。其中Positives代表预测是对的,Negatives代表预测是错的,True代表原本为对,False代表原本为错。如何评价两个二分类模型的好坏呢?二分类模型的理想状态是什么呢?

首先回答第二个问题,理想的二分类模型能将原本是对的预测为对,原本是错的预测为错。一般情况下,我们很难收集到完备的“原本是对的,原本是错的”数据集,也就是说,通常情况下我们获得是完备的“原本是对的,原本是错的”数据集的一个子集。因此,评价二分类模型的优劣就是在该子集上进行的。我们希望在该子集上对二分类模型的评价是无偏的,也就是说,在概率上保证在该子集上对二分类模型的评价与在完备集上的评价一致。

针对第一个问题,其实很简单,数数就行了。数数原本是对的预测为对的个数,原本是错的预测为错的个数,原本是对的预测为错的比例,原本是错的预测为对的比例(评价二分类问题的四个基本元素,后续评价指标都是在此基础上做出的)。评价一个模型的好坏用四个参数是不是有点不太直观哦,要是只有一个评价指标,如果一个模型的这指标比别的模型大,那这个模型就比别的模型好(或者反过来,一个模型的这指标比别的模型小,那这个模型比别的模型好),该多好哦!哈哈!

8c58459ebebc2b6d25c165d5dc4d3fd4.png

precision的含义是:预测为对的当中,原本为对的比例(越大越好,1为理想状态)

recall的含义是:原本为对的当中,预测为对的比例(越大越好,1为理想状态)

F-measure的含义是:用precision和recall两个指标不直观(任性),索性把他们合并为一个,这就是F-measure(越大越好,1为理想状态,此时precision为1,recall为1)

accuracy的含义是:预测对的(包括原本是对预测为对,原本是错的预测为错两种情形)占整个的比例(越大越好,1为理想状态)

fp rate的含义是:原本是错的预测为对的比例(越小越好,0为理想状态)

tp rate的含义是:原本是对的预测为对的比例(越大越好,1为理想状态)

ROC曲线的含义是:得到算法的一组(fp rate, tp rate)然后做出的曲线(没办法用大小来衡量,不开心,因此有了AUC),如Fig 2所示

AUC的含义:ROC曲线下的面积(越大越好,1为理想状态)

77db0c7caa31d218f383f23c6a3b5640.png

Fig 2 ROC曲线示意图

二、上述评价评价指标的有趣特性

1) 实际中应用测试数据集可能存在以下三种情况之一:原本是对的与原本是错的比例一致,原本是对的所占比例较小,原本是对的所占比例较大。在上述三种情况下,由于(fp         rate, tp rate)基本保持不变,因此ROC曲线、AUC在一定程度上具备对数据集正负样本比例的不变性。

2) 如果单纯蒙的话会是什么结果呢(假设原本是对的预测为对的比例,原本是错的预测为错的比例,原本是对的预测为错的比例,原本是错的预测为对的比例都为0.5,其实也就        是蒙的直接结果了)?此时,precision、recall以及综合两者的F-measure值不能作为判断模型好坏的标准(因为原本是错的数量不确定,考虑原本是对的数据只有1,原本是      错的数据有10000这种极端情况根据他们的定义即可得知precision近似为0,正负样本比例一致则precision约为0.5),也就是说上述三个指标受数据集正负样本比例影响。

3) (fp rate, tp rate)是如何获得呢?对于一个数据集应该只有一组(fp rate, tp rate)吧!这里面涉及到一个问题,就是二分类模型的输出通常是输入为对的概率,如果我      们认为概率大于T的为对,那么如果T不同则(fp rate, tp rate)不同,因此我们获得了一组(fp rate, tp rate)。

三、ROC曲线的Python实现实例

importnumpy as npfrom sklearn.metrics importroc_curve

y= np.array([1,1,2,2])

pred= np.array([0.1,0.4,0.35,0.8])

fpr, tpr, thresholds= roc_curve(y, pred, pos_label=2)print(fpr)print(tpr)print(thresholds)from sklearn.metrics importaucprint(auc(fpr, tpr))

上述代码可以得到ROC曲线数据对(fp rate,tp rate)(因为thresholds取不同值的缘故),AUC

总结:由二分类问题的四个基本元素出发,得出ROC曲线、AUC、Precision、Recall以及F-measure的定义及特性,最后给出Python的一个简单实现。

原文:http://www.cnblogs.com/haoguoeveryone/p/haoguo_5.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python中,可以使用sklearn.metrics模块中的函数来计算随机森林的各项性能指标。下面是一个示例代码: ```python from sklearn.datasets import load_iris from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import accuracy_score, confusion_matrix, classification_report, roc_curve, precision_recall_curve, auc from sklearn.model_selection import train_test_split import matplotlib.pyplot as plt # 加载数据集 data = load_iris() X = data.data y = data.target # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # 训练随机森林模型 rf = RandomForestClassifier(n_estimators=100, random_state=42) rf.fit(X_train, y_train) # 在测试集上进行预测 y_pred = rf.predict(X_test) # 计算准确率 accuracy = accuracy_score(y_test, y_pred) print('Accuracy:', accuracy) # 计算混淆矩阵 cm = confusion_matrix(y_test, y_pred) print('Confusion matrix:\n', cm) # 输出分类报告 report = classification_report(y_test, y_pred) print('Classification report:\n', report) # 计算ROC曲线AUC值 y_proba = rf.predict_proba(X_test) fpr, tpr, thresholds = roc_curve(y_test, y_proba[:, 1], pos_label=2) roc_auc = auc(fpr, tpr) print('ROC AUC:', roc_auc) # 绘制ROC曲线 plt.figure() plt.plot(fpr, tpr, color='darkorange', lw=2, label='ROC curve (AUC = %0.2f)' % roc_auc) plt.plot([0, 1], [0, 1], color='navy', lw=2, linestyle='--') plt.xlim([0.0, 1.0]) plt.ylim([0.0, 1.05]) plt.xlabel('False Positive Rate') plt.ylabel('True Positive Rate') plt.title('Receiver operating characteristic') plt.legend(loc="lower right") plt.show() # 计算PRC曲线AUCprecision, recall, thresholds = precision_recall_curve(y_test, y_proba[:, 1], pos_label=2) prc_auc = auc(recall, precision) print('PRC AUC:', prc_auc) # 绘制PRC曲线 plt.figure() plt.plot(recall, precision, color='darkorange', lw=2, label='PRC curve (AUC = %0.2f)' % prc_auc) plt.xlim([0.0, 1.0]) plt.ylim([0.0, 1.05]) plt.xlabel('Recall') plt.ylabel('Precision') plt.title('Precision-Recall Curve') plt.legend(loc="lower right") plt.show() ``` 在上述代码中,首先使用load_iris函数加载鸢尾花数据集,然后将数据集划分为训练集和测试集。接着,使用RandomForestClassifier函数创建随机森林模型并在训练集上进行训练,然后在测试集上进行预测。然后,使用sklearn.metrics模块中的函数计算准确率、混淆矩阵、分类报告、ROC曲线AUC值、PRC曲线AUC值,并使用matplotlib库绘制ROC曲线和PRC曲线。 需要注意的是,以上代码中的y_proba[:, 1]是指预测为正例的概率,这里默认将类别为2的鸢尾花作为正例。如果需要将其他类别作为正例,需要将pos_label参数设置为相应的类别标签。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值