【跟李沐学AI—机器学习】3 评估指标

使用旧数据训练得到的模型,在新的数据上预测效果怎么样

一般是通过评估指标来进行模型的选择

1. Accuracy准确度——在所有样本中,预测正确的概率

预测准确的数量 样本总数 \frac{预测准确的数量}{样本总数} 样本总数预测准确的数量

2. Precision精确度——你认为的正样本中,有多少是真的正确的概率

预测为类别 A & & 它真的为类别 A 预测为类别 A 的所有数量 \frac{预测为类别A \&\& 它真的为类别A}{预测为类别A的所有数量} 预测为类别A的所有数量预测为类别A&&它真的为类别A

3. Recall召回率——正样本中有多少是被找了出来

预测为类别 A & & 它真的为类别 A 类别 A 的所有样本数量 \frac{预测为类别A \&\& 它真的为类别A}{类别A的所有样本数量} 类别A的所有样本数量预测为类别A&&它真的为类别A

4. F1-score——平衡精度和召回率,F1 score越高,说明模型越稳健

2 p r p + r \frac{2pr}{p+r} p+r2pr

5. ROC和AUC

ROC代表接收者操作特征曲线(Receiver Operating Characteristic),是一种以图形方式表示分类模型性能的工具。

它展示了模型在不同分类阈值下的真阳性率(True Positive Rate)与假阳性率(False Positive Rate)之间的关系。真阳性率指的是模型正确地将正例预测为正例的比例,而假阳性率指的是模型错误地将负例预测为正例的比例。

AUC代表ROC曲线下方的面积(Area Under the Curve)。AUC是一个度量指标,用于衡量分类模型的性能。

AUC的取值范围在0到1之间,其中0.5表示模型的分类能力等同于随机猜测,而1表示模型完美地对样本进行分类。0-0.5其实就是0.5-1的符号相反了。

在这里插入图片描述

6. overfiting过拟合

泛化误差高、训练误差低,如简单数据用复杂模型训练

7. underfiting欠拟合

泛化误差高、训练误差也高,如复杂数据用简单模型训练

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值