precision recall accuracy F1 说明

最近有些同学 问我一些 关于 precision recall 和 accuracy的问题,我觉得有必要在此处解释一下,

以上图what-if中的混淆矩阵为例,矩阵第一行分别是tp,fn
第二行分别是fp,tn

precision=tp/(tp+fp)
recall=tp/(tp+fn)
accuracy=(tp+tn)/all
precision和recall两个是负相关性,即precision增加,recall减少,
precision含义是在我们预测的正例中,真正是正例的百分比,越高越好。
recall含义是在实际是正例中,我们成功预测出的正例所在百分比,越高越好
accuracy含义是我预测对(不管预测的是正例还是负例,只要预测结果是对的)的百分比。
如上所述,precision与recall是负相关的(距离提要提高哪一个指标需要看具体业务情况),所以需要一个均衡值f1值,
f1值为precision和recall的调和平均数,也即
f1=2/(1/p+1/r)=2pr/(p+r)

针对不均衡数据,不能单独使用accuracy,比如我有100个数据,其中有99正例和1个负例,就算我预测的结果是全部为正例,accuracy也是有99%

 

知乎: https://zhuanlan.zhihu.com/albertwang

微信公众号:AI-Research-Studio

https://i-blog.csdnimg.cn/blog_migrate/5509f60f875d387159a310532cc257dd.png ​​

下面是赞赏码

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值