评估指标的总结
机器学习模型评价的指标有很多,本文给出了其中一些主要的指标:
-
准确率(Accuracy):正确预测的样本数占总样本数的比例。
https://editor.csdn.net/md/?articleId=135735913 -
精确率(Precision):正真(True Positive,TP)样本占所有预测为正(TP和FP)样本的比例,体现了模型对正样本的识别能力。
https://editor.csdn.net/md/?articleId=135736033 -
召回率(Recall):正真(True Positive,TP)样本占所有真实为正(TP和FN)样本的比例,体现了模型发现正样本的能力。
https://editor.csdn.net/md/?articleId=135736043 -
F1值:精确率和召回率的调和平均值,同时考虑了精确率和召回率。
https://editor.csdn.net/md/?articleId=135736055 -
ROC-AUC:ROC曲线下的面积,ROC曲线是真正率(True Positive Rate,TPR)与假正率(False Positive Rate,FPR)的函数。AUC越大,模型的分类性能越好。
https://editor.csdn.net/md/?articleId=135736072 -
PR-AUC:精度-召回曲线下的面积,它专注于精确性和召回率之间的权衡,更适合不平衡的数据集。
https://editor.csdn.net/md/?articleId=135736138 -
FPR/TNR:FPR衡量模型误报能力,TNR衡量模型正确识别负样本的能力。
https://editor.csdn.net/md?articleId=135820980 -
马修斯相关系数(MCC):一个综合考虑了真阳性、真阴性、假阳性和假阴性关系的度量值,提供了二元分类质量的平衡度量。
https://editor.csdn.net/md/?articleId=135821005 -
科恩卡帕系数(cohen’s kappa): 评估分类任务模型性能的重要工具,能准确测量预测与标签的一致性,并校正偶然一致性,尤其在多个评分者场景中更具优势。
https://editor.csdn.net/md/?articleId=135823213 -
轮廓系数(Silhouette Coefficient): 衡量样本与其分配的簇之间的相似度。
-
互信息(Mutual Information): 衡量两个聚类之间的相似度。
-
调整兰德指数(Adjusted Rand Index): 衡量两个聚类之间的相似度,考虑了偶然的匹配。
以上各个指标各有特点,适用于不同的问题场景。在实际应用中,可能需要结合多个指标来全面评价模型的性能。