机器学习中的查准率(Precision)、查全率(Recall)、F1 度量

最近看论文实验时忘记了 “Recall” 这个评价指标是干什么用的,所有简单地回顾一下,用最简单方法加深一下记忆

首先得先回顾一下分类结果的混淆矩阵,忘记的朋友可以参考我这篇:分类结果的混淆矩阵

查准率(Precision)
P = T P T P + F P P=\frac{TP}{TP+FP} P=TP+FPTP
【正确的分类样本中的正例个数】与 【所有预测为正例的样本个数】之比,分子好理解,但是分母容易与查全率(Recall)中的分母混淆!所以要记住:查准率是对预测结果的一个评价指标,不要去考虑真实情况如何,分母就只包括预测的结果,即混淆矩阵的第一列上,所以分母就包括:被分类正确的正例(TP)和被分类错误的正例(FP)

查全率(Recall)
R = T P T P + F N R=\frac{TP}{TP+FN} R=TP+FNTP
【正确的分类样本中的正例个数】与 【真实正例的样本个数】之比,同样分子好理解,分布母则容易与查准率(Precision)中的分母混淆!所以要记住:查全率是模型从真实正例样本中揪出来的正例个数,全部注意力要集中在真实情况的正例上,即混淆矩阵的第一行上,所以分母就包括:被分类正确的正例(TP)和被分类错误的负例(FN)

需要注意的是:查准率(Precision)和查全率(Recall)一般不会保持同步高或低,数值变化趋势一般相反(西瓜中也指出:一般来说,查准率高,查全率往往偏低;而查全率高时,查准率往往偏低)

F1 度量
F 1 = 2 × P × R P + R = 2 × T P 样 例 总 数 + T P − T N F1=\frac{2\times P\times R}{P+R}=\frac{2\times TP}{样例总数+TP-TN} F1=P+R2×P×R=+TPTN2×TP
有时,评价模型时更关注查准率(Precision),有时更关注查全率(Recall),F1 度量就是基于 查准率(Precision)查全率(Recall) 的调和平均定义的,从而表达出对 P 和 R 的不同偏好。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

csdn-WJW

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值