信噪比的角度理解机器学习里的 Precision 和 Recall

分类任务可以比喻成新冠的检测,要把阳性检出。
如何量化这个检出能力?
考虑多少阳性被检出,尽量减少漏网之鱼。

即:检出的阳性/样本里的全部阳性。

注意:预测里的假阴,就是样本里的阳

因此全部阳性=假阴性(Fasle negative)+真阳性(positive negative),因此等于 真阳/(假阴性+真阳性),用 “Recall” 评估。

“Recall” 这个词儿指的是从既有信息中,回忆、检索到目标意思,这种 “检出率” 严格地说是样本中的检出率,并不能代表真实,因此用 recall 最合适不过,语义上非常严格地限定了 “不做预测” 的特性。

考虑这样的模型给出的信号时,“噪声” 便是不小心被**“放过”的那一部分,而另一种噪声是“杀错”**,比如杀毒任务、垃圾邮件拦截任务中被误杀的良文件。这一部分,即精准度(Precision),P=真阳/预测为阳的量。

但无论如何,信号都是被正确圈出来的那部分真阳性。

既然是噪声,那如何合成总体我们要的呢?统计上使用调和平均数去考虑P和R,得到F1值。

最后,给出 gpt 从交叉熵角度的讨论:

信息增益(Information Gain)和交叉熵(Cross-Entropy):

信息增益衡量的是在知道某个特征或预测结果后不确定性减少的量
在优化模型时,我们希望最大化关于目标变量的信息增益。(也就是说,我们希望优化的模型,是一个给的结果能减少不确定度的,而不是因为效果不好所以得复检)。

交叉熵是衡量两个概率分布之间差异的一种方式。
在分类任务中,交叉熵损失可以衡量模型预测的概率分布与实际标签的概率分布之间的差异
在这个视角下,减少“漏检”和“误报”可以被视为减少模型预测和真实分布之间的交叉熵。
(训练时不光比较结果,还比较给出的概率分布。)

在这里插入图片描述

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
机器学习中,查准率(precision)和查全率(recall)是用来评估分类模型性能的重要指标。查准率指的是在所有被模型预测为正例的样本中,实际为正例的比例。而查全率指的是在所有实际为正例的样本中,被模型正确预测为正例的比例。 通常情况下,查准率和查全率是相互矛盾的,提高查准率会导致查全率下降,反之亦然。这是因为在分类问题中,我们可以通过调整阈值来决定将样本划分为正例还是负例。当我们降低阈值时,会增加正例的数量,从而提高查全率,但可能会降低查准率。相反,当我们提高阈值时,会减少正例的数量,从而提高查准率,但可能会降低查全率。 为了综合考虑查准率和查全率,我们通常使用F1分数来评估模型的性能。F1分数是查准率和查全率的调和平均值,可以通过以下公式计算:F1 = (2 * precision * recall) / (precision + recall)。 因此,在机器学习中,我们可以使用查准率、查全率和F1分数来评估分类模型的性能。 #### 引用[.reference_title] - *1* *2* [【机器学习】精确率(precision)、召回率(recall)以及F1分数的概念讲解加python代码实现](https://blog.csdn.net/weixin_42163563/article/details/116697828)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [机器学习之——PrecisionRecall](https://blog.csdn.net/educationer/article/details/99580979)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值