AUC值越大_一文看懂ROC、AUC

本文介绍了机器学习中重要的评价指标,特别是针对二分类问题的ROC曲线和AUC值。详细解析了混淆矩阵的概念,以及如何通过混淆矩阵获取准确率、查准率、召回率等指标。接着讨论了ROC曲线的构建过程及其意义,指出AUC值越大,分类器性能越好,它是衡量分类器好坏的一个概率值,表示随机选取一个正样本和负样本,正样本得分高于负样本的概率。文章还探讨了AUC的计算方法,包括直观的面积法和基于秩的公式法,并提供了计算AUC的代码示例。
摘要由CSDN通过智能技术生成

评测指标是衡量一个算法是否出色的一个重要部分,好的指标能让我们这些炼丹学徒知道,练出来的丹药是否有效果。那么在机器学习中有哪些值得一探究竟的指标呢?本文就PR图,ROC、AUC、mAP这4个方面进行详细探究。

总的来说评价指标的核心得从二分类问题说起:一个类,它实际值有0、1两种取值,即负例、正例;而二分类算法预测出来的结果,也只有0、1两种取值,即负例、正例。我们不考虑二分类算法细节,当作黑箱子就好;我们关心的是,预测的结果和实际情况匹配、偏差的情况。

从TP、FP、TN、FN讲起。那么说起这些指标,则又要需要说混淆矩阵了。

混淆矩阵

混淆矩阵是机器学习中总结分类模型预测结果的情形分析表,以矩阵形式将数据集中的记录按照真实的类别与分类模型作出的分类判断两个标准进行汇总。这个名字来源于它可以非常容易的表明多个类别是否有混淆(正类预测成负类)。

f571a59f37ba2979019495e082067f0b.png
混淆矩阵

这里,我们认为 1 为正类, 0为负类,那么我们可以得出这样的指标:

46c06e48bca045647536ff6445152512.png
正类负类的差别

P (Positive) 和 N(Negative) 代表模型的判断结果

T (True) 和 F(False) 评价模型的判断结果是否正确

FP: 假正例,模型的判断是正例 (P) ,实际上这是错误的(F),连起来就是假正例

FN:假负例,模型的判断是负例(N),实际上这是错误的(F),连起来就是假正例<

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值