搬运于 https://www.cnblogs.com/zongfa/p/9431807.html
一、分类问
-
对于二类分类器/分类算法,评价指标主要有accuracy,[Precision,Recall,F-score,Pr曲线],ROC-AUC曲线。
-
对于多类分类器/分类算法,评价指标主要有accuracy, [宏平均和微平均,F-score]。
混淆矩阵
混淆矩阵是监督学习中的一种可视化工具,主要用于比较分类结果和实例的真实信息。矩阵中的每一行代表实例的预测类别,每一列代表实例的真实类别。
- 真正(True Positive , TP):被模型预测为正的正样本。
- 假正(False Positive , FP):被模型预测为正的负样本。
- 假负(False Negative , FN):被模型预测为负的正样本。
- 真负(True Negative , TN):被模型预测为负的负样本。
真正率(True Positive Rate,TPR):TPR=TP/(TP+FN),即被预测为正的正样本数 /正样本实际数。
假正率(False Positive Rate,FPR) :FPR=FP/(FP+TN),即被预测为正的负样本数 /负样本实际数。
假负率(False Negative Rate,FNR) :FNR=FN/(TP+FN),即被预测为负的正样本数 /正样本实际数。
真负率(True Negative Rate,TNR):TNR=TN/(TN+FP),即被预测为负的负样本数 /负样本实际数
1.准确率(Accuracy)
准确率是最常用的分类性能指标。即正确预测的正反例数 /总数。
Accuracy = (TP+TN)/(TP+FN+FP+TN)
## accuracy
import numpy as np
from sklearn.metrics import accuracy_score
y_pred = [0, 1, 0, 1]
y_true = [0, 1, 1, 1]
print('ACC:',accuracy_score(y_true, y_pred))
ACC = 0.75
2.精确率(Precision)
精确率容易和准确率被混为一谈。其实,精确率只是针对预测正确的正样本而不是所有预测正确的样本。表现为预测出是正的里面有多少真正是正的。可理解为查准率。即正确预测的正例数 /预测正例总数。
Precision = TP/(TP+FP)
3.召回率(Recall)
召回率表现出在实际正样本中,分类器能预测出多少。与真正率相等,可理解为查全率。即正确预测的正例数 /实际正例总数。