混淆矩阵
True Positive (真正, TP)被模型预测为正的正样本;
True Negative(真负 , TN)被模型预测为负的负样本 ;
False Positive (假正, FP)被模型预测为正的负样本;
False Negative(假负 , FN)被模型预测为负的正样本;
准确率
准确率(Accuracy)。顾名思义,就是所有的预测正确(正类负类)的占总的比重
a c c u r a c y = T P + T N T P + F N + F P + T N \rm accuracy = \frac{TP + TN}{TP + FN + FP + TN} accuracy=TP+FN+FP+TNTP+TN
真正率
True Positive Rate(真正率 , TPR)或灵敏度(sensitivity),也叫召回率
T P R = T P T P + F N \rm TPR = \frac{TP}{TP + FN} TPR=TP+FNTP
正样本预测结果数 / 正样本实际数
假正率
False Positive Rate (假正率, FPR)
F P R = F P F P + T N \rm FPR = \frac{FP}{FP + TN} FPR=FP+TNFP
被预测为正的负样本结果数 /负样本实际数
精确率
精确率(Precision),查准率。即正确预测为正的占全部预测为正的比例。个人理解:真正正确的占所有预测为正的比例。
p r e c i s i o n = T P T P + F P \rm precision = \frac{TP}{TP + FP} precision=TP+FPTP
召回率
召回率(Recall),查全率,也叫真正率TPR。即正确预测为正的占全部实际为正的比例。个人理解:真正正确的占所有实际为正的比例。
r e c a l l = T P T P + F N \rm recall = \frac{TP}{TP + FN} recall=TP+FNTP
F-measure(F1)值
精确率越高越好,召回率越高越好。F1分数同时考虑精确率和召回率,让两者同时达到最高,取得平衡,F1越大越好!
F 1 = 2 × p r e c i s i o n × r e c a l l p r e c i s i o n + r e c a l l \rm F1 = \frac{2 \times precision \times recall }{precision + recall} F1=precision+recall2×precision×recall(标准公式)------(2)
F 1 = 2 1 p r e c i s i o n + 1 r e c a l l \rm F1 = \frac{2}{\frac{1}{precision} + \frac{1}{recall}} F1=precision1+recall12(方便理解)------(1)
从(1)看出,Recall不变时,Precision越大,1/Precision越小,从而F1越大。
同理: Precision不变时,Recall越大,1/Recall越小,从而F1越大。
上面式子(2)可以由式子(1)推导出来。
代码点亮人生,思维改变世界~