第一章 绪论
学习算法:若一个程序通过利用经验E在T中任务上获得了性能改善,我们就说关于T和P,该程序对E进行了学习。
假设空间:所有假设组成的空间
版本空间:一个与训练集一致的“假设集合”
归纳偏好:机器学习算法在学习过程中对某种类型假设的偏好,一般认为“奥卡姆剃刀”是可以采用的确定归纳偏好的原则(此处存疑)
NFL定理:对于任意两个算法,期望性能相同,所以需要看问题本身
第二章 模型评估与选择
2.1 经验误差与过拟合
经验误差即训练误差,与之对应的是泛化误差,如果两者相距过大,我们可以认为模型处于过拟合状态。
评估方法包括:留出法,交叉验证法,自助法(bootstrapping,bagging的前置,自助采样)
调参(parameter tuning)
比较检验:一般论文里用的还是baseline下的性能比较,比较严谨的可能包括假设检验,交叉验证t检验或者McNemar检验,Friedman检验和Nemenyi后续检验
偏差-方差分解:一般认为泛化误差可分解为偏差方差与噪声之和。