第1章 绪论
对于一个学习算法a,若它在某问题上比学习算法b好,则必然存在另一些问题,在那里b比a好.即"没有免费的午餐"定理(No Free Lunch Theorem,NFL).因此要谈论算法的相对优劣,必须要针对具体的学习问题
回到顶部
第2章 模型评估与选择
m次n折交叉验证实际上进行了m*n次训练和测试
可以用F1度量的一般形式Fβ来表达对查准率/查全率的偏好:
偏差度量了学习算法的期望预测与真实结果的偏离程度,即学习算法本身的拟合能力,方差度量了同样大小的训练集的变动所导致的学习性能的变化,即数据扰动造成的影响.噪声表达了当前任务上任何学习算法所能达到的期望泛化误差的下界,即学习问题本身的难度.
西瓜书笔记(前两章)
最新推荐文章于 2024-07-19 19:11:19 发布