recall 和 precision

recall 是召回率又叫检出率

precision 是准确率又叫检准率

对了今天还看到一个叫法“采样”,搞了半天就是“池化”,但是采样其实更好理解pooling,要是从表面上看的话。

说回recall 和 precision

注意到这两个东西是在一篇论文里,检出率比检准率低,也就是r<p,之前我不知道是他们俩,就疑惑检出怎么可能低于检准,遂查了一下,之前对这两个概念也是混了又混,这次认真的再看一遍,记录一下。

这两个东西在模式识别和信息检索里出现,起到度量的作用,让我想起了交叉熵这个东西,交叉熵是信息论里面的概念,原本是用来估算平均编码长度的。 这个是我看一本书看到的,名字是《TensorFlow实战Google深度学习框架》。

好了再说回来

写四个字母。

A B 

 C D

举个例子,看人群中谁吃没吃饭。

A就代表看出来的,吃饭了的,人的个数。

B代表看错了,其实没吃饭的,人的个数。

C代表没看出来,其实吃饭了的,人的个数

D代表没看出来,也的确没吃饭的,人的个数(也不该用“看出来了”这个描述,它只是输出一个分类结果,这个位置就是个0)

那么召回率就是:A/(A+C)

      准确率就是:A/(A+B)

好了接下来看看检出是怎么高于检准的,也不难,就让C>B 就可以了,也就是看漏又不对的数量大于看错的数量。

具体化这个例子,邻居6个人,预测他们吃没吃饭,4个人吃了,2个人没吃。

邻居们/判断ABCDEF
吃了11   0
没吃  110 

数字1表示吃过饭的邻居,“吃了”和“没吃”表示预测,测对了3个,错了3个。

召回率R=2/(2+2)=1/2

准确率P=2/(2+1)=2/3

好了,R>P了,心满意足,撤了。

如果你恰巧看到这篇儿又没看明白,可以去看博主:燃烧的舞步  的文章。

言简意赅还有图,在这里对他表示感谢。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值