from: http://blog.chinaunix.net/uid-446337-id-94448.html
对一个二分问题来说,会出现四种情况。如果一个实例是正类并且也被预测成正类,即为真正类(True positive),如果实例是负类被预测成正类,称之为假正类(False positive)。相应地,如果实例是负类被预测成负类,称之为真负类(True positive),正类被预测成负类则为假负类(false negative)。
列联表如下表所示,1代表正类,0代表负类。
|
| 预测 |
| |
|
| 1 | 0 | 合计 |
实际 | 1 | True Positive(TP) | False Negative(FN) | Actual Positive(TP+FN) |
0 | False Positive(FP) | True Negative(TN) | Actual Negative(FP+TN) | |
合计 |
| Predicted Positive(TP+FP) | Predicted Negative(FN+TN) | TP+FP+FN+TN |
从列联表引入两个新名词。其一是真正类率(true positive rate ,TPR), 计算公式为TPR=TP / (TP + FN),刻画的是分类器所识别出的正实例占所有正实例的比例。另外一个是负正类率(false positive rate, FPR),计算公式为FPR= FP / (FP + TN),计算的是分类器错认为正类的负实例占所有负实例的比例。还有一个真负类率(True Negative Rate,TNR),也称为specificity,计算公式为TNR=TN / (FP + TN) = 1 − FPR。
- False positive rate (α) = FP / (FP + TN) = 1 − specificity
- False negative rate (β) = FN / (TP + FN) = 1 − sensitivity
- Power = sensitivity = 1 − β
- Likelihood ratio positive = sensitivity / (1 − specificity)
Likelihood ratio negative = (1 − sensitivity) / specificity
Confuse Matrix
Positive
(P=TP+FN)
Negative
(N=TN+FP)
Test
outcomePositive
(P'=TP+FP)True Positive (TP)
False Positive (FP)
(Type I error, P-value)→ Positive predictive value
PPV=TP/(TP+FP)
or, PrecisionNegative
(N'=FN+TN)False Negative (FN)
(Type II error)True Negative (TN)
→ Negative predictive value
NPV=TN/(TN+FN)↓
Sensitivity=
TP/(TP+FN)=
TP/P
or True Positive Rate (TPR)
or Recall↓
Specificity=
TN/(FP+TN)=
TN/N
or True Negative Rate(TNR)Accuracy: ACC=TP+TN/(P+N)
MCC=(TPxTN-FPxFN) /
Sqrt ( PxNxP’xN’ )
F-measure= 2xPrecsionxRecall / (Precsion+Recall)
MCC: Matthews correlation coefficient
false discovery rate (FDR)- FDR = FP / (FP + TP)