机器学习算法-二分类问题常见的评价指标

一、准确率

准确率是我们常见的评价指标之一,一般定义是,分类正确的样本数占总样本的比例数。

 

 

但是准确率在数据不均衡的数据集上会缺少一定的说服力,比如一个数据集,有990正样本,10个负样本,现在模型把样本全部都预测成正样本,那么我们说模型的准确率是99%,这个从计算上看是没问题,但是当样本不均衡时,光使用准确率来评价一个模型的好坏是不够的。

二、精准率和召回率

二分类问题的预测结果可以根据情况分成以下四类:

真正例(True Positive):预测值为1,真实值为1

假正例(False Positive):预测值为1,真实值为0

真反例(True Negative):预测值为0,真实值为0

假反例(False Negative):预测值为0,真实值为1

构造成结果的混淆矩阵

 

精准率又称查准率:

 

召回率又称查全率:

 

精准率可以解释为,预测为正例的样本中,有多少是真的正例

召回率可以解释为,真实的正例的样本中,有多少被预测出来

F1:精准率和召回率的调和平均

 

三、AUC

AUC是另一种评价二分类算法的指标,被定义为 ROC 曲线下的面积。那什么是ROC曲线呢?

 

ROC曲线的坐标,纵坐标为真正例率(True Positive Rate,TPR),横坐标为假正例率(False Positive Rate,FPR)

具体定义如下:

 

根据模型在ROC坐标上的位置,可以判断模型的性能

 

 

模型1

 

 

模型2

 

 

横纵坐标

 

 

 

ROC坐标上的四个点

(0,1):所有样本分类正确

(1,0):所有样本分类错误

(0,0):所以样本都分类为负

(1:1):所以样本都分类为正

由上图可以看出模型2要好于模型1

怎么画出AUC曲线呢,首先按照预测值进行排序

 

按照预测值大小,依次作为阈值,求解FP rate和TP rate

 

 

按照上图的信息可以画出曲线

 

曲线下的面积被称为AOC

AOC的意义:衡量正样本排在负样本前面的能力,这里的能力更具体一点就是出现的概率。与域值的选取没有关系。

四、混淆矩阵

对于多分类的相关问题,常用的评价标准是混淆矩阵

如果分成n个类别的话,混淆矩阵的形式是一个

 

的一个矩阵,具体的形式如下

 

上图中每一列代表预测的类别,每一行代表真实的类别的归属,第二行cat的总数量为8,表示类cat总共有8个样本,其中3个分类正确,3个被错误的分到了dog,2个被错误的分到了robbit。

如果计算cat的准确率计算公式如下

 

参考文献:

1、 李航《统计学习方法》清华大学出版社

2、周志华 《机器学习》 清华大学出版社

3、Confusion matrix

4、sklearn.metrics.confusion_matrix - scikit-learn 0.20.2 documentation

本文源自贪心学院:苏品毓

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 适合毕业设计、课程设计作业。这些源码资源特别适合大学生群体。无论你是计机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。 所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答!
吴恩达机器学习课程的ex2data1数据集是一个二分类问题的数据集。数据集中包含两个特征变量,分别是两门考试的分数,以及一个元标签变量,表示该学生是否被录取。我们的目标是利用这些特征来构建一个学生录取预测模型。 首先,我们可以对数据进行可视化分析,将两门考试的分数分别作为横轴和纵轴,用不同颜色的点表示录取与未录取的学生。通过观察数据的分布,可以初步判断两个特征与录取结果之间是否存在某种关联。 接下来,需要进行数据预处理。通常,我们会将特征归一化,以避免不同量级的数据对模型的影响。可以通过计每个特征的均值和标准差,然后将数据减去均值并除以标准差,实现归一化处理。 在建立模型之前,我们可以选择采用逻辑回归或其他分类法来构建预测模型。逻辑回归是一种广泛应用于分类任务的法,它利用一个逻辑函数将特征与分类结果建立联系。 模型的训练过程可以通过最大似然估计或梯度下降法实现。最大似然估计的目标是最大化模型预测正确的可能性。梯度下降法则通过不断迭代调整模型参数,使得模型的损失函数最小化。 模型训练完成后,我们可以使用一些评价指标来评估模型的性能。常见的指标包括准确率、精确率、召回率等。获得了较好的评价结果后,我们可以使用模型来进行未知样本的预测,即判断学生是否被录取。 总结来说,吴恩达机器学习课程的ex2data1数据集是一个包含两个特征变量和一个元标签变量的二分类问题数据集。利用逻辑回归法,我们可以构建一个学生录取预测模型,并使用评价指标来评估模型性能。最终,我们可以使用该模型来进行未知样本的预测。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值