机器学习模型的常见性能指标

 其中,( TP ) 表示真阳性(True Positive)、( TN ) 表示真阴性(True Negative)、( FP ) 表示假阳性(False Positive)、( FN ) 表示假阴性(False Negative)。

1.准确率(Accuracy):

                        Accuracy = \frac{TP + TN}{TP + TN + FP + FN}

2.精确率(Precision):

                        Precision = \frac{TP}{TP + FP}

 3.召回率(Recall):

                        Recall = \frac{TP}{TP + FN}

4.F1-score:

                       F1\text{-}score = 2 \times \frac{Precision \times Recall}{Precision + Recall}

5.ROC曲线和AUC:

       ROC(Receiver Operating Characteristic)曲线是一种用于评估分类模型性能的工具,它以分类阈值为变化的基础上绘制了真阳性率(True Positive Rate,TPR,也称为敏感度)假阳性率(False Positive Rate,FPR)之间的关系。

       在ROC曲线中,横轴表示FPR,纵轴表示TPR。通过改变分类器的分类阈值,可以得到一系列不同的TPR和FPR数值。ROC曲线能够直观地展现出在各种阈值下模型的性能表现。

        通常情况下,ROC曲线下方的面积(AUC,Area Under the ROC Curve)被用来衡量分类器的性能。AUC的取值范围在0到1之间,AUC值越接近1,表示分类器性能越好;而当AUC值接近0.5时,则代表分类器的性能与随机猜测没有太大区别。

       ROC曲线和AUC值为我们提供了一种直观且客观的方法来评估分类模型的性能,特别适用于二分类问题

6.平均准确率(mAP):

          首先计算每个类别的精确率-召回率曲线下的面积,然后对所有类别的面积取平均。

7.均方误差(MSE):

                                 MSE = \frac{1}{n} \sum_{i=1}^{n}(y_i - \hat{y}_i)^2

          其中,y_i 是真实值,\hat{y}_i 是预测值,n 是样本数量。

8.R平方(R-squared):

        R平方的计算方式较为复杂,它衡量了模型对目标变量方差的解释能力,其计算涉及实际值和预测值之间的差异。

9.对数损失(Log Loss):

         对数损失通常用于概率预测问题,其计算公式比较复杂,涉及到真实标签和预测概率之间的对数计算。

10.举例计算

       在二分类问题中,TP(True Positives)、FP(False Positives)、TN(True Negatives)和FN(False Negatives)是混淆矩阵的四个基本组成部分。

  • TP (True Positives): 实际为正类别,预测也为正类别的数量。
  • FP (False Positives): 实际为负类别,预测却为正类别的数量。
  • TN (True Negatives): 实际为负类别,预测也为负类别的数量。
  • FN (False Negatives): 实际为正类别,预测却为负类别的数量。

    假设我们有以下数据:

 

  • 33
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值