【ML】Confusion Matrix, True/False x Pos/Neg, Precision-Recall, F1/F-beta/G Score, etc

Backto ML Index

用于分类结果的量化评价, 首先, 4 个 值, [True False] * [Positive Negative],
在这里插入图片描述

这四个类别的划分, 要从后往前看, 先区分分类的结果是 Positive or Negative, 之后, 再与 Ground Truth 做对比, 一致的前面加 True, 否则加 False.

分类的结果统计一下, 可以构成 Confusion Matrix
在这里插入图片描述

然后在 TP, TN, FP, FN 这四个类别的基础上, 衍生出来一大批的专门术语, 没办法, 因为 classification 问题太广泛太基础, 被研究的太精细了.

在这里插入图片描述

更多的, 更详细的, 去下面的 wiki 中找吧.

PR曲线

  • Recall, 召回率, 顾名思义, 就是在初始样本中有多少TP被 recall 了, R e c a l l = T P P = T P T P + F N Recall = \frac {TP}{P} = \frac{TP}{TP+FN} Recall=PTP=TP+FNTP
  • Precision, 精准度, 顾名思义, 就是在预测结果为Postive的样本中, 有多少是真的 TP, P r e c i s i o n = T P T P + F P Precision = \frac{TP}{TP + FP} Precision=TP+FPTP

由此绘制 PR 曲线, 通常是这样,

在这里插入图片描述
左端, P为 100%(或快速上升到 100%), 可能只处理了一两个样本, 因此, R很低. 向右推移, 所有的 Positive 逐渐被 全部被 Recall, R 接近 100%, 但是肯定掺杂着越来越多的 FP, P逐渐走低.

F1-Score

F1 score 是一个平均数, 对精确率与召回率的调和平均数。
在这里插入图片描述
F1 score 取值范围 [0,1], 认为 precision 和 recall 同样重要,都高的时候,F1 score 才更高。

F-beta Score

F β F_\beta Fβ Score 是 对 R 和 P 赋予不同权重, ω r e c a l l = β ω p r e c i s i o n \omega_{recall} = \beta\omega_{precision} ωrecall=βωprecision
在这里插入图片描述
F 2 F_2 F2 Score:recall 权重是 precision 的两倍;
F 0.5 F_{0.5} F0.5 Score: precision 权重是 recall 的两倍

G Score

G Score 是 P 和 R 的几何平均数

在这里插入图片描述


Ref

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值