第一章绪论的学习积累已经在之前写出。
链接:第一章绪论学习
补充一点内容:
一、没有免费的午餐定理
- 任何算法抛开实际问题来比较算法的优略性是无意义的。
- 通常我们只认为能高度拟合已有样本数据的函数才是真实目标函数
第二章 模型评估与选择
一、经验误差与过拟合
①通常我们把分类错误的样本数占样本总数的比例称为“错误率”(error rate),即如果在m个样本中有α个样本分类错误,则错误率E= a/m;相应的,1 - a/m称为“精度”(accuracy),即“精度= 1-错误率”.更一般地,我们把学习器的实际预测输出与样本的真实输出之间的差异称为“误差”(error),学习器在训练集上的误差称为“训练误差”(training error)或“经验误差”(empirical error),在新样本上的误差称为“泛化误差”(generalization error).显然,我们希望得到泛化误差小的学习器.
②过拟合,把训练样本中不太一般的特性也学了
欠拟合,学习能力底下导致
比较有印象的是过拟合,在实验中使用过图神经网络模型,构建的训练集loss降低,而测试集loss在升高。这个现象,出现问题的原因还有可能是特征处理问题。
二、关于P,NP,NP难
参考链接这里
三、划分训练集、测试集方法
- 留出法
- 交叉验证法
- 自助法(不常用)
四、评价指标
对于多个二分类混淆矩阵时,介绍了有两种处理方法:
①先在个矩阵计算出查准率和查全率,再计算平均值。称为:宏查准率,宏~~
②先将各混淆矩阵的对应元素进行平均,
五、之后ROC和AUC及代价曲线等不是很明白,之后再回溯
六、偏差与方差
- 泛化误差可分解为偏差、方差与噪声之和
- 偏差刻画了算法拟合能力,方差度量了同样大小训练集的变动所导致的学习性能的变化,噪声刻画了学习问题本身的难度
- 偏差-方差窘境:
整体学习指路:
- 西瓜书
- 南瓜书
- Datawhale吃瓜教程