Recall(召回率);Precision(准确率);F1-Meature(综合评价指标);true positives;false positives;false negatives..

原文: http://blog.csdn.net/t710smgtwoshima/article/details/8215037

Recall(召回率);Precision(准确率);F1-Meature(综合评价指标);
 
    在信息检索(如搜索引擎)、自然语言处理和检测分类中经常会使用这些参数,介于语言翻译上的原因理解难免出现误差,下面介绍下自己对他们的理解。
 
首先来个定义:
Precision:被检测出来的信息当中 正确的或者相关的(也就是你想要的)信息中所占的比例;
Recall:所有正确的信息或者相关的信息(wanted)被检测出来的比例。
F1-Meature后面定义。
 
查了资料都习惯使用四格图来解释,来个易懂的四格图:

正确的、相关的(wanted)不正确的、不相关的
检测出来的
true  positives (纳真tp)
false  positives(纳伪fp)
未检测出来的
false  negatives(去真fn)
true  negatives  (去伪tn)
 
 
表格中的翻译比较重要,可以帮助理解。
true positives (纳真)    false positives(纳伪)
false negatives(去真)true negatives  (去伪)
其中false positives(纳伪)也通常称作误报,false negatives也通常称作漏报!
 
Precision =   tp/(tp + fp);
Recall = tp / (tp + fn).
同样还有另外两个定义
\mbox{True Negative Rate}=\frac{tn}{tn+fp} \,
\mbox{Accuracy}=\frac{tp+tn}{tp+tn+fp+fn} \,

然而在实际当中我们当然希望检索的结果P越高越好,R也越高越好;事实上这两者在某些情况下是矛盾的。比如,我们只搜出了一个结果,且是准确的,那么P就是100%,但是R就很低;而如果我们把所有结果都返回,那么必然R是100%,但是P很低。因此在不同的场合中需要自己判断希望P比较高还是R比较高。如果是做实验,可以绘制Precision-Recall曲线来帮助分析。

 

F-Measure是Precision和Recall加权调和平均:
 F = \frac{(a^2+1)P*R} {a^2(P+R)} \hfill (3)

当参数a=1时,就是最常见的F1了:
 F1 = \frac{2PR} {P+R} \hfill (4)

很容易理解,F1综合了P和R的结果,当F1较高时则比较说明实验方法比较理想。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值