在人工智能领域,机器学习的模型及效果如何需要用各种指标来评价。本文将简单介绍几种机器学习中无监督学习的常用评价指标。无监督学习主要分为两类:分类问题与回归问题。
- 分类问题又分为二分类与多分类,输出类别值为离散型,其评价指标包含:精确率(precision),召回率(recall),准确率(accuracy),F1分数,ROC曲线和AUC曲线;
- 回归问题的输出变量为连续型,其评价指标主要包含均方误差(MSE)、平均绝对误差(MAE)、决定系数( R 2 R^2 R2)。
文章目录
一、分类问题
1.1、混淆矩阵
- 首先看个例子:现有红蓝球各五个,经过模型训练后,红球中的2个被识别为蓝球,蓝球中的1个被识别为红球。这个过程我们可以用一个矩阵来表示:
真实情况 | 分类结果 | |
红球(1) | 蓝球(0) | |
红球(1) | 3 | 2 |
蓝球(0) | 1 | 4 |
- 这个就叫做混淆矩阵,是一个评估分类问题常用的工具,对于 k 分类,其实它就是一个k x k的表格,用来记录分类器的预测结果。现在我们看一下通用的二分类混淆矩阵:
真实情况 | 分类结果 | |
正例 | 负例 | |
正例 | 真正例 | 假反例 |
负例 | 假正例 | 真反例 |
`
简称 | 简写 | 含义 |
---|---|---|
真正例 | TP (True Positives) | 实际为正例,预测也为正例 |
真反例 | TN (True Negatives) | 实际为负例,预测也为负例 |
假正例 | FP(False Positives) | 实际为负例,预测也为正例 |
假反例 | FN(False Negatives) | 实际为正例,预测也为负例 |
1.2、精确率(查准率)、召回率(查全率)、准确率、F1分数
-
精确率:正例预测为正例的样本数在预测结果中的占比
P r e c i s i o n = T P T P + F P = 真 正 例 真 正 例 + 假 正 例 = N ( 正 → 正 ) N ( 正 → 正 ) + N ( 负 → 正 ) Precision = \frac{TP}{TP+FP} = \frac{真正例}{真正例+假正例}=\frac{N(正→正)}{N(正→正)+N(负→正)} Precision=TP+FPTP=真正例+假正例真正例=N(正→正)+N(负→正)N(正→正) -
召回率:正例预测为正例的样本数在原数据样本中的占比
R e c a l l = T P T P + F N = 真 正 例 真 正 例 + 假 负 例 = N ( 正 → 正 ) N ( 正 → 正 ) + N ( 正 → 负 ) Recall = \frac{TP}{TP+FN} = \frac{真正例}{真正例+假负例}=\frac{N(正→正)}{N(正→正)+N(正→负)} Recall=TP+FNTP=真正例+假负例真正例=N(正→正)+N(正→负)N(正→正) -
F1分数:是精确率和召回率的调和均值( 2 F 1 = 1 P + 1 R \frac {2} {F_1}=\frac{1}{P} +\frac{1}{R} F12=P1+R1