查准率和查全率

查准率和查全率

Machine learning 中查准率(Precision)、查全率(recall)和Accuracy。 
表示分类正确: 
True Positive:本来是正样例,分类成正样例。 
True Negative:本来是负样例,分类成负样例。 
表示分类错误: 
False Positive :本来是负样例,分类成正样例,通常叫误报。 
False Negative:本来是正样例,分类成负样例,通常叫漏报。

Precision/Recall实际分类
预测分类10
1true positivefalse positive
0false negativetrue negative

Precision = true positive / ( true positive + false positive); 

Precision =预测正确正/(预测正确正+预测错误正) 查准率


Recall = true positive / ( true positive + false negative); 查全率

Recall =预测正确正/(预测正确正+预测错误的负)
Accuracy = (true positives + true negatives) / (total examples) 

Accuracy = (预测正确正+预测正确负)/总样本
下面说说个人理解: 
查准率呢,就是看看我们算法预测是否分类为1中有实际为0的误报成分。 
查全率呢,就是看看我们算法预测是否漏掉了一些该分类为1的,却分类为0的,也就是漏报了的。


查准率和查全率是对分类任务中的其中一个类别来说的。


假如一个分类任务中有A,B,C.......好多类。

假如整个用于测试的样本有200个(其实查准率与查全率与测试样本多少个并没有直接的关系)。

我们把A类单拉出来:
假设A类别总共有80个样本,但是预测的时候机器学习系统说一共有70个A类别的样本。这就有问题了,且不说70个A类别的数对不上,而且你70个里边还有一些是其他类别吧。你既然预测出来结果了,那么我们就要想办法衡量你的性能。接下来我们将这70个预测结果扒开来看一看就明白了。

70个样本其实真正预测正确的也就是50个,其他的20个不知道是哪些别的类。我们可以这样描述这个现象:机器学习系统查到了70个A类别,其中50个是准确的,所以A类别的查准率为50/70。

但是还有另一个问题,那些个机器学习系统没有查到的A类别呢。就说明它没有查全嘛,有多少没查全呢?从上面可以看出有80个A,它只查到了50个,所以引入了查全率50/80。


这个和博客中查准率和查全率是鱼和熊掌不可兼得的关系,不是很明白。

http://blog.csdn.net/jningwei/article/details/78955536



  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI算法网奇

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值