关于机器学习中Precision和Recall的概念的理解

Andrew Ng 机器学习第六课

关于这个Precision和Recall的概念,我一直不能很好的理解,所以我找了个时间梳理的了一下。

这里写图片描述
- Accuracy = 准确率 预测对的除以总样本数
- Precision = 预测正率
- Recall = 查对率 预测对占实际是对的

理解资料

这里写图片描述

这里写图片描述

这里写图片描述

以上内容都为转载.

帮助理解的例子

拿导弹的例子:雷达收到 100个导弹信号 ,只有3个是真的导弹 ,97
个全是假的模拟导弹信号。而我们的预测器(分类器) 预测出来 98个是
模拟导弹信号,而1个没有被预测出来,而这一个会带来毁灭性伤害。

这时候我们希望 Precision 大一点 我们不希望 一个被没有预测出来而毁 了整座城市,更多的时候我们宁愿预测错多一点也不想放过一个真导弹 Recall低 Recall可以低一点。
因为Recall低了把很对实际上是假导弹当为真导弹。但是它并没有漏掉(漏检)真导弹。
这里写图片描述
Recall = 100% Precision = 66.7%

另外一个例子:在法庭上有审判100个可疑的谋杀犯人。 95个是真的谋
杀犯,而5个并不是谋杀犯。而检察官(分类器)判定其中97个是谋杀犯,
显然其中有两个人是被冤枉的。

这个这时候我们很大程度上并不希望有人会被冤枉。我们希望Recall高一点,被冤枉的人少一点。但是我们也希望Precision要高一点,因为我们又不想放过那些杀了人却逃过一劫的人。

这里写图片描述
Recall = 97.9% Precision = 100%

但是很多时候,鱼和熊掌不可兼得,所以我们更希望根据Precision和Recall的主次(权重)把模型优化到最优。

  • 8
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值