- 绪论
- 模型评估与选择(1)
- 模型评估与选择(2)
- 模型评估与选择(3)
- 线性模型(1)线性回归
- 决策树
- 神经网络
- 支持向量机
- 贝叶斯分类
- 集成学习
- 聚类
- 降维与度量学习
- 特征选择与稀疏学习
- 计算学习理论
- 半监督学习
- 概率图模型
- 规则学习
- 强化学习
模型评估与选择(3)
本次学习的都是一些检验不同学习器的性能是否相同的方法,在统计的过程当中大家应该都学过。
2.4.2 交叉验证t检验
对于两个学习器A和B,如果我们使用k折交叉验证法得到的测试错误率分
试集上得到的结果,则可以用k折交叉验证“成对t检验”来进行比较检验。
对每一折的测试错误率求差
很简单,用t检验比较两组数是否相等。
但是通常情况下,想要进行有效的假设检验,一个重要的前提是测试错误率均为泛化错误率的独立采样,然而,在使用交叉验证的时候,在不同轮次的训练集会有一定程度的重叠(比如说,10折交叉验证,每次就会有8个分组是相同的),这使得测试错误率实际上并不独立,会导致过高估计假设成立的概率。为缓解这一问题,可采用“5*2交叉验证”。
即做5次2折交叉验证,这样的化,在每一个轮次中,就不会出现分组重叠的情况。
对两个学习器A和B,第i次2折交叉验证将产生两对测试错误率,我们对他们分别求差,得到第1折上的差
2.4.3 McNemar检验
2.4.4 Friedman检验与Nemenyi
交叉验证t检验和McNemar检验都是在一个数据集上比较两个算法的性能,而当我们需要在一个数据集上对多个算法进行比较时,一种做法是在每个数据集上分别列出两两比较的结果;另一种方法是基于算法排序的Friedman检验。
假设我们用D1、D2、D3、D4四个数据集对算法A、B、C进行比较,首先,使用留出法或交叉验证法得到每个算法在每个数据集上的测试结果,然后在每个数据集上根据测试性能由好到坏排序,并赋予序值1,2,…;若算法的测试性能相同,则平分序值。例如,在D1和D3上,A最好、B其次、C最差…,则可列出表2.5。
2.5 偏差与方差
偏差-方差分解试图对学习算法的期望泛化错误进行拆解。
第二章节讲述的更多的是对学习器或分类器的性能评估,更多涉及到的是统计方面的知识,公式比较多。