Precision和Recall

Precision(精确率 / 查准率)和 Recall(召回率 / 查全率)是分类任务中常用的两种性能度量,它们用于评估模型在处理二分类或多分类问题时的表现。

Precision(精确率)

精确率衡量的是模型预测为正类的样本中,真正为正类的比例。它回答了以下问题:

  • 在所有被模型预测为正类的样本中,有多少是真正的正类?

精确率的计算公式为:

Precision=\frac{TP}{TP+FP}

其中:

  • TP(True Positive):真正例,即被正确预测为正类的样本数。
  • FP(False Positive):假正例,即被错误预测为正类的样本数。

Recall(召回率)

召回率衡量的是实际为正类的样本中,被正确预测为正类的比例。它回答了以下问题:

  • 在所有实际为正类的样本中,有多少被模型正确地识别出来?

召回率的计算公式为:

Recall=\frac{TP}{TP+FN}

其中:

  • TP(True Positive):真正例,即被正确预测为正类的样本数。
  • FN(False Negative):假负例,即被错误预测为负类的样本数。

python使用示例

from sklearn.metrics import confusion_matrix, precision_score, recall_score


y_true = [0, 1, 1, 0, 1, 0, 1, 1, 0, 1]

y_pred = [0, 1, 0, 0, 1, 0, 1, 0, 0, 1]

cm = confusion_matrix(y_true, y_pred)
print("Confusion Matrix:\n", cm)

precision = precision_score(y_true, y_pred)
print(f'Precision (精确率): {precision}')

recall = recall_score(y_true, y_pred)
print(f'Recall (召回率): {recall}')

Precision和Recall的权衡

精确率和召回率之间通常存在权衡关系:

  • 高精确率意味着预测为正类的样本中大部分是真正的正类,但可能会漏掉一些实际为正类的样本(召回率较低)。
  • 高召回率意味着大部分实际为正类的样本都被正确识别,但可能会误将一些负类样本预测为正类(精确率较低)。

为了综合考虑精确率和召回率,可以使用F1-score,它是精确率和召回率的调和平均数:

F1=2\times \frac{Precision\times Recall}{Precision+Recall}

F1-score提供了一个单一的度量来平衡精确率和召回率,特别适用于类不平衡的数据集。

总结

  • Precision(精确率):在所有被预测为正类的样本中,真正为正类的比例。
  • Recall(召回率):在所有实际为正类的样本中,被正确预测为正类的比例。
  • 8
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

chen_znn

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值