【ML基础】recall && precision

参考资料

这里介绍的非常详细:
分类 (Classification):精确率和召回率

我的理解

 Precision  = T P T P + F P = 预 测 出 来 的 人 脸 框 中 , T P 的 比 例 \text { Precision }=\frac{T P}{T P+F P } = 预测出来的人脸框中,TP的比例  Precision =TP+FPTP=TP  Recall  = T P T P + F N = 实 际 为 人 脸 的 所 有 框 中 , T P 的 比 例 \text { Recall }=\frac{T P}{T P+F N} = 实际为人脸的所有框中,TP的比例  Recall =TP+FNTP=TP

  • precision越高,错误的人脸预测越少,造成的FP帧数浪费越少
    • 因为:错误的人脸预测意味着原本非人脸,被预测为人脸,这些原本可以不需要经过FaceDetect,但由于错误预测,仍然要经过FaceDetect,造成资源的浪费。
  • recall越高,说明越多的GT被框中,及漏检较少
  • 在这里插入图片描述
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值