recall 是召回率又叫检出率
precision 是准确率又叫检准率
对了今天还看到一个叫法“采样”,搞了半天就是“池化”,但是采样其实更好理解pooling,要是从表面上看的话。
说回recall 和 precision
注意到这两个东西是在一篇论文里,检出率比检准率低,也就是r<p,之前我不知道是他们俩,就疑惑检出怎么可能低于检准,遂查了一下,之前对这两个概念也是混了又混,这次认真的再看一遍,记录一下。
这两个东西在模式识别和信息检索里出现,起到度量的作用,让我想起了交叉熵这个东西,交叉熵是信息论里面的概念,原本是用来估算平均编码长度的。 这个是我看一本书看到的,名字是《TensorFlow实战Google深度学习框架》。
好了再说回来
写四个字母。
A B
C D
举个例子,看人群中谁吃没吃饭。
A就代表看出来的,吃饭了的,人的个数。
B代表看错了,其实没吃饭的,人的个数。
C代表没看出来,其实吃饭了的,人的个数
D代表没看出来,也的确没吃饭的,人的个数(也不该用“看出来了”这个描述,它只是输出一个分类结果,这个位置就是个0)
那么召回率就是:A/(A+C)
准确率就是:A/(A+B)
好了接下来看看检出是怎么高于检准的,也不难,就让C>B 就可以了,也就是看漏又不对的数量大于看错的数量。
具体化这个例子,邻居6个人,预测他们吃没吃饭,4个人吃了,2个人没吃。
邻居们/判断 | A | B | C | D | E | F |
吃了 | 1 | 1 | 0 | |||
没吃 | 1 | 1 | 0 |
数字1表示吃过饭的邻居,“吃了”和“没吃”表示预测,测对了3个,错了3个。
召回率R=2/(2+2)=1/2
准确率P=2/(2+1)=2/3
好了,R>P了,心满意足,撤了。
如果你恰巧看到这篇儿又没看明白,可以去看博主:燃烧的舞步 的文章。
言简意赅还有图,在这里对他表示感谢。