目录
6.P-R曲线(Precision-Recall Curve)
10.KS图(Kolomogorov Smirnov chart)
11.增益图和提升图(Gain and Lift charts)
模型评估方式
1.验证(Hold-Out)
使用这种方法时,通常大的数据集会被随机分成三个子集:
训练集
:用于构建预测模型。
验证集
:用于评估训练阶段所得模型的性能。它为模型参数优化和选择最优模型提供了测试平台。不是所有模型算法都需要验证集。
测试集
:用之前未训练的样本评估模型的预测性能。如果模型与训练集拟合的好于测试集,有可能是过拟合所致。
2.交叉验证(Cross-Validation)
当仅有有限数量的数据时,为了对模型性能进行无偏估计,我们可以使用 k 折交叉验证(k-fold cross-validation)。 使用这种方法时,数据被分成 k 份数目相等的子集;构建k次模型,每次留一个子集做测试集,其他用作训练集。如果 k 等于样本大小,这也被称之为留一验证(leave-one-out)。
二分类问题
1.混淆矩阵(Confuse Matrix)
混淆矩阵是机器学习中总结分类模型预测结果的情形分析表,以矩阵形式将数据集中的记录按照真实的类别与分类模型作出的分类判断两个标准进行汇总。
预测正例 | 预测负例 | |
实际正例 | TP (True Positive) 被模型预测为正的正样本 |
FN (False Negative) 被模型预测为负的正样本 |
实际负例 | FP (False Positive) 被模型预测为正的负样本 |
TN (True Negative) 被模型预测为负的负样本 |
T (True) 和 F(False) 评价模型的判断结果是否正确;
P (Positive) 和 N(Negative) 代表模型的判断结果即分类器预测的结果。
假正例率(FPR)/ 误诊率( = 1 - 特异度):代表分类器预测的正类中实际负实例占所有负实例的比例。意为有多少负例被错判成了正例。
真负例率(TNR)/ 特异度(Specificity):代表分类器预测的负类中负实例占所有负实例的比例,TNR=1-FPR。衡量的是所有的负例中有多少是被正确分类了,由于类别不平衡问题中通常关注正例能否正确被识别,Specificity高则FP低,意味着很少将负例错判为正例,即该分类器对正例的判别具有“特异性”,在预测为正例的样本中很少有负例混入。
假负例率(FNR)/ 漏诊率 (= 1 - 灵敏度):意为有多少正例被错判成了负例。
阳性似然比 = 真正例率 / 假正例率 = 灵敏度 / (1 - 特异度)
阴性似然比 = 假负例率 / 真负例率 = (1 - 灵敏度)/ 特异度
Youden指数 = 灵敏度 + 特异度 - 1 = 真正例率 - 假正例率
2.准确率(Accuracy)
准确率=预测正确的样本数/所有样本数,即预测正确的样本比例(包括预测正确的正样本和预测正确的负样本)。
Accuracy 能够清晰的判断模型的表现,但有一个严重的缺陷:在正负样本不均衡的情况下,占比大的类别往往会成为影响 Accuracy 的最主要因素,此时的 Accuracy 并不能很好的反映模型的整体情况。
3.精确率(Precision)
精确率 / 查准率衡量的是所有被预测为正例的样本中有多少是真正例,是针对