机器学习 精准率 — 召回率 — 准确率 — F1-Score

准确率 、召回率 、精确率 :

  准确率->accuracy, 精确率->precision. 召回率-> recall. 三者很像,但是并不同,简单来说三者的目的对象并不相同。
  大多时候我们需要将三者放到特定的任务环境中才会更加明显的感觉到三者的差异。
  在介绍这些之前,我们先回顾一下我们的混淆矩阵。

  1. True Positive(真正, TP):将正类预测为正类数.
  2. True Negative(真负 , TN):将负类预测为负类数.
  3. False Positive(假正, FP):将负类预测为正类数 →→ 误报 (Type I error).
  4. False Negative(假负 , FN):将正类预测为负类数 →→ 漏报 (Type II error)

精确率:在识别为正类的样本中,确实是正类样本的比例

  实际上非常简单,精确率是对我们的预测结果而言的指标。其作用的主要范围主要是在我们的预测结果中。对于实际结果集的大小,并不在精确率的考虑中。

P = T P T P + F P P=\frac{T P}{T P+F P} P=TP+FPTP

召回率:所有的正类别中,被正确识别的正类别的比例

  召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。那也有两种可能,一种是把原来的正类预测成正类(TP),另一种就是把原来的正类预测为负类(FN)。

R = T P T P + F N R = \frac{TP}{TP+FN} R=TP+FNTP

准确率(accuracy):模型预测正确的结果所占的比例

准 确 率 ( a c c u r a c y ) = ( T P + T N ) / ( T P + F N + F P + T N ) 准确率(accuracy) =(TP+TN)/(TP+FN+FP+TN) (accuracy)=(TP+TN)/(TP+FN+FP+TN)

  由上面三个公式可以看出来,我们三个指标所面向的目标集是不同的。其中很明显看出来P是面向我们所选中的XP样本,也就是说是面向我们的预测结果,而召回率面向的是之前中应该本选中的样本,也就是本身的应该被选中的样本集而言。而准确率则是面向的所有不该选中和应该被选中的样本。

4)F1-Score:

  从上面的P和R的公式中,很容易发现,两者的存在可能会有一定的矛盾,很难实现双高的情况,为了兼顾这两个指标,我们提出了F1-Score:

F 1 = 2 ⋅ precision ⋅ recall precision + recall F_{1}=2 \cdot \frac{\text {precision} \cdot \text {recall}}{\text {precision}+\text {recall}} F1=2precision+recallprecisionrecall
    
其中还出现了其他的F系参数,如F贝塔等等。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值