一篇文章就搞懂啦,这个必须收藏!
我们以图片分类来举例,当然换成文本、语音等也是一样的。
Positive
正样本。比如你要识别一组图片是不是猫,那么你预测某张图片是猫,这张图片就被预测成了正样本。Negative
负样本。比如你要识别一组图片是不是猫,那么你预测某张图片不是猫,这张图片就被预测成了负样本。TP
一组预测为正样本的图片中,真的是正样本的图片数。TN:
一组预测为负样本的图片中,真的是负样本的图片数。FP:
一组预测为正样本的图片中,其实是负样本的图片数。又称“误检”FN:
一组预测为负样本的图片中,其实是正样本的图片数。又称“漏检”。精度(accuracy)
分类正确的样本数占总样本数的比例。
acc = (TP+TN)/ 总样本数查准率/准确率 precision
一组预测为正样本的图片中,真的是正样本的图片所占的比例。
为什么有了Accuracy还要提出Precision的概念呢?因为前者在测试样本集的正负样本数不均衡的时候,比如正样本数为1,负样本数为99时,模型只要每次都将给定的样本预测成负样本,那么Accuracy = (0+99)/100 = 0.99,精度依然可以很高,但这毫无意义。但是同样的样本集,同样的方法运用到查准率公式上,就不可能得到一个很高的值了。
查全率/召回率 recall
所有真的是正样本的图片中,被成功预测出来的图片所占的比例。