分类算法常见的评估指标
1、混淆矩阵(Confuse Matrix)
(1)若一个实例是正类,并且被预测为正类,即为真正类TP(True Positive)
(2)若一个实例是正类,但是被预测为负类,即为假负类FN(False Negative)
(3)若一个实例是负类,但是被预测为正类,即为假正类FP(False Positive)
(4)若一个实例是负类,并且被预测为负类,即为真负类TN(True Negative)
将四个指标一起呈现在表格中,就得到了如下的混淆矩阵:
混淆矩阵 | 真实值 | ||
---|---|---|---|
正类 | 负类 | ||
预测值 | 正类 | TP(真正类) | FP(假正类) |
负类 | FN(假负类) | TN(真负类) |
假设情况一:测试集有100个数据,我的模型预测结果中有60个正确值(其中有20个预测错误)和40个错误值(其中有10个预测错误),但是在实际结果中有50个正确值和50个错误值,那么我们将得到如下的混淆矩阵:
混淆矩阵 | 真实值 | ||
---|---|---|---|
正类 | 反类 | ||
预测值 | 正类 | 40 | 20 |
反类 | 10 | 30 |
2、准确率(Accuracy)
准确率(ACC):对于给定的测试数据集,分类器正确分类的样本数与总样本数之比。
A c c u r a c y = T P + T N T P + T N + F P + F N Accuracy = \frac{TP + TN}{TP + TN + FP + FN} Accuracy=TP+TN+FP+FNTP+TN
针对情况一:
A c c u r a c y = 40 + 30 100 = 0.7 Accuracy = \frac{40 + 30}{100} = 0.7 Accuracy=10040+30=0.7
缺陷:这个指标不适合正负样本不均衡的情况,例如:假设测试集有100个数据,其中90个是正类,剩余10个是负类。即使分类模型将所有实例均预测为正类,Accuracy也有90,这样就没什么意义了。
3、精确率(Precision)
精准率(PPV):又称查准率,正确预测为正样本(TP)占预测为正样本(TP+FP)的百分比。
P r e c i s i o n = T P T P + F P Precision = \frac{TP}{TP + FP} Precision=TP+FPTP
针对情况一:
P r e c i s i o n = 40 40 + 20 = 2 3 ≈ 0.67 Precision = \frac{40}{40 + 20} = \frac{2}{3} ≈ 0.67 Precision=40+2040=