机器学习评估指标 - f1, precision, recall, acc, MCC

1 介绍 TP, TF, FP, FN

        TP, TF, FP, FN 是针对二分类任务预测结果得到的值,这四个值构成了混淆矩阵;

        如下图的混淆矩阵:

        左侧表示真实的标签,human标记为0; fake标记为1;

        右侧部分predicted class表示预测的标签;

        因此: TN表示(True -- 预测正确, Negitive, 预测为0)预测标签为0(human),预测正确;

                     FN表示(False -- 预测错误,Negitive, 预测为0)预测标签为0(human),预测错误;

                     FP表示  (False -- 预测错误, Positive, 预测为1)预测标签为1(fake),预测错误;

                     TP表示(True -- 预测正确, Positive, 预测为1)预测标签为1(fake),预测正确;

2 介绍f1, precision, recall, acc, MCC

        f1, precision, recall, acc, MCC是由上述混淆矩阵的四个值计算得到的;

        计算公式:

        acc = \frac{TP + TN}{TP+TN+FP+FN} 

                acc预测的真实结果,总体数据中,有多少数据被预测正确了;

        recall = \frac{TP}{TP+FN}

                recall 预测为bot且预测正确的数量占全部预测为bot数量的比例;

        Precision = \frac{TP}{TP + FP}

                Precision 预测为bot且预测正确的数量占实际为bot数量的比例;

        f1 = \frac{2*Precision*recall}{Precision+recall}

        MCC =

        f1 和 Mcc为综合评价指标;

上述五个指标优劣分析:

        准确度(acc)衡量有多少样本在两个类中被正确识别,但它不表示一个类能否被另一个类更好地识别;

        高精确度(Precision)表明许多被识别为1(bot)的样本被正确识别,但它没有提供有关尚未识别的1(bot)样本的任何信息;

        该信息由召回指标(recall)提供,表示在整个1(bot)样本集中有多少样本被正确识别:低召回意味着许多1(bot)样本未被识别;

        F1 和 MCC 试图在以一个单一的值中传达预测的质量,并结合其他指标。

        MCC 被认为是 F1 的无偏版本,因为它使用了混淆矩阵的所有四个元素。 MCC 值接近 1 表示预测非常准确;接近 0 的值意味着预测并不比随机猜测好,接近 -1 的值意味着预测与真实类别严重不一致。

        

  • 1
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: precisionrecall、f1-score和support是机器学习中常用的评估指标。 其中,precision(精确率)指的是模型预测为正例的样本中,真正为正例的比例;recall(召回率)指的是真正为正例的样本中,被模型预测为正例的比例;f1-score(F1值)是precisionrecall的调和平均数,用于综合评估模型的性能;support(支持数)指的是每个类别在数据集中出现的次数。 在分类问题中,precisionrecall和f1-score都是用来评估模型的分类准确性的指标,而support则是用来衡量每个类别的样本数量。 ### 回答2: precisionrecall、f1-score和support是机器学习中对分类模型性能评价的重要指标Precision(精确率)是指预测为正样本的样本中有多少是真正的正样本。它的计算公式为:Precision = 真正的正样本数 / 预测为正样本的样本数。Precision越高,说明模型预测的正样本越准确。 Recall(召回率)是指所有真正的正样本中,模型预测出了多少个正样本。它的计算公式为:Recall = 真正的正样本数 / 所有真正的正样本数。Recall越高,说明模型能够识别到更多的正样本。 F1-score(F1指标)是精确率和召回率的调和平均值。它的计算公式为:F1-score = 2 * Precision * Recall / (Precision + Recall)。F1-score综合考虑了模型的精确率和召回率,是一个更全面的评价模型分类性能的指标。 Support是指每个类别在测试集中出现的频率(数量)。这个指标主要是为了在多分类任务中,评价每个类别的影响力大小。 在实际应用中,需要综合考虑PrecisionRecall和F1-score来评价一个分类模型的准确性和召回能力。比如,在医学领域中,如果一个肿瘤预测模型的Recall很高,说明模型能够预测出更多的真实患者,但如果Precision很低,就会出现很多误诊的情况。此时,我们可以将F1-score作为综合评价指标,考虑模型的精确率和召回率的平衡。 ### 回答3: 这四个指标评估分类模型性能的重要指标,通常会和混淆矩阵一起使用来评价模型的表现。 Precision(精确率):是指模型在预测为正例中有多少是真正的正例,也可以说是真正例占全部预测为正例的比例。该指标越高,表示模型判断为正例的数据越有可能是真正的正例。 Recall(召回率):是指模型在所有真正实际为正例的样本中,能够被模型正确预测为正例的比例。该指标越高,表示模型能够更好地找到真正的正例。 F1-score:是指精确率和召回率的综合指标,是两者的调和平均数。该指标可以更全面地反映模型的准确率和遗漏率,适用于数据不平衡的情况。 Support(支持度):是指数据集中属于某个类别的样本数量,与其他指标不同的是,该指标没有考虑模型的预测结果,只是对数据集的分布做出了描述。 在实际应用中,选择哪个指标作为评价标准取决于具体任务的需求以及数据分布的特点。例如,在银行反欺诈领域,由于正例较少,需要更关注召回率以避免错过异常交易,而将精确率作为优化目标可能会导致将正常交易误判。因此,在不同场景下需要合理选择评价指标,并综合考虑多个指标综合评估模型的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值