评估方法
常见的评估方法有: 1. 留出法(hold-out) 2. 交叉验证法(cross validation)3. 自助法(bootstrap)
留出法(hold-out)
- 将已有的数据集分为两个互斥的部分
- 保证数据S与T的分布一致
- 测试集比例一般保持在1/3 ~ 1/5
交叉验证法(cross validation)
将原始数据分成K组(一般是均分),将每个子集数据分别做一次验证集,其余的K-1组子集数据作为训练集,这样会得到K个模型,用这K个模型最终的验证集的分类准确率的平均数作为此K-CV下分类器的性能指标.
- K一般大于等于2,实际操作时一般从3开始取,只有在原始数据集合数据量小的时候才会尝试取2.
- 交叉验证法可以有效的避免过学习以及欠学习状态的发生,最后得到的结果也比较具有说服性.
自助法(bootstrap)
数据集D中包含m个样本,对数据集D进行m次有放回采样,采样到的数据构成数据集D′, 将D′作为训练集,未出现在D′中的数据作为测试集 。
其中样本不出现在D’中的概率为:
数据集中约有36.8%的数据不会出现在训练数据集D’中。
注:1. 适用于小数据集。2. 不会减小训练集规模。 3. 改变了数据分布, 易引起估计偏差。
回归评估指标
回归模型的任务目标是使得预测值能尽量拟合实际值, 因此常用的性能度量方式主要有绝对误差和均方差两种
平均绝对误差(mean absolute error, MAE)
MAE误差又称为 L1范数损失(L1-norm loss),即预测点与真实点之间距离之差的绝对值的平均值。能更好地反映预测值误差的实际情况。定义为:
平均平方误差(mean squared error, MSE)
MSE又称为L2范数损失(L2-norm loss),即预测点与真实点之间距离之差平均和的均值。是用来衡量一组数自身的离散程度。定义为:
均方根误差(root mean square error,RMSE)
是观测值与真值偏差的平方和与观测次数m比值的平方根, 是用来衡量观测值同真值之间的偏差。定义为:
分类评估指标
分类模型的评估指标比较多,不同的评估指标的侧重点可能不同。
以二分类(正、负)为例:
- 真正(TP):模型预测为正的正样本
- 假正(FP):模型预测为正的负样本
- 假负(FN):模型预测为负的正样本
- 真负(TN):模型预测为负的负样本
准确率(accuracy)
用来衡量模型对数据集中样本预测正确的比例, 即: 正确预测的正反例数 /总数
精度(precision)
是指所有预测为正例的样本(TP + FP)中真正为正例的样本(TP)的比率, 即: 正确预测的正例数 /预测正例总数
召回率(recall)
是指所有为正例的样本(TP + FN)中真的正例(TP)的比率, 即: 正确预测的正例数 /实际正例总数
F-Score
精确率(Precision)和召回率(Recall)评估指标,理想情况下做到两个指标都高当然最好,但一般情况下,Precision高,Recall就低,Recall高,Precision就低。
所以在实际中常常需要根据具体情况做出取舍,例如一般的搜索情况,在保证召回率的条件下,尽量提升精确率。引出了一个新的指标F-score,综合考虑Precision和Recall的调和值F-Score
- 当β=1时,称为 F1-score或者 F1-Measure,这时,精确率和召回率都很重要,权重相同。
- 当有些情况下,我们认为精确率更重要些,那就调整β的值小于1,
- 如果我们认为召回率更重要些,那就调整β的值大于1。
ROC曲线(receiver operating characteristic curve)
根据分类结果计算得到ROC空间中相应的点,连接这些点形成ROC曲线。
真正率(TPR):预测为正的正样本数 /正样本实际数
假正率(FPR) :预测为正的负样本数 /负样本实际数
>
靠近左上角的ROC曲所代表的分类器准确性最高
AUC(Area Under Curve)
ROC曲线下的面积(ROC的积分) 称为 AUC。根据曲线位置,把整个图划分成了两部分,曲线下方部分的面积被称为AUC(Area Under Curve),用来表示预测准确性,AUC值越高,也就是曲线下方面积越大,说明预测准确率越高。曲线越接近左上角(X越小,Y越大),预测准确率越高。
- AUC = 1: 100%完美识别正负类,不管阈值怎么设定都能得出完美预测;
- 0.5<AUC<1:优于随机猜测。这个分类器(模型)妥善设定阈值的话,可能有预测价值;
- AUC=0.5:跟随机猜测一样(例:随机丢N次硬币, 正反面的概率为50%), 模型无预测价值;
- AUC<0.5:比随机猜测还差,不存在AUC<0.5的情况
混淆矩阵(Confusion Matrix)
又称为误差矩阵, 主要用于比较分类结果和实例的真实信息
聚类评估指标
因为聚类是将样本集划分为若干个不相交的子集, 及样本簇, 同样需要通过某些性能度量方式来评估其聚类结果的好坏。直观上看,我们是希望同一簇内的样本能尽可能相似,而不同簇的样本之间尽可能不同。实现这一目标主要有外部指标和内部指标两种方式。
外部指标(External Index)
外部指标需要提供一个参考模型,然后将聚类结果与该参数模型进行比较得到一个评判值: 常用的有Jaccard系数、FM指数、Rand指数和标准化互信息
内部指标(Internal Index)
// TODO
参考
- http://www.mashangxue123.com/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/1969668933.html