chap1 绪论
1.1主要研究内容
关于在计算机上从数据中产生"模型" 的算法
1.2基本术语:
- 特征向量
- 学习器
- 训练集,测试集,验证集:
我们通常把学得模型在实际使用中遇到的数据称为测试数据,为了加以区分,模型评估与选择中用于评估测试的数据集常称为"验证集" (validation set). 例如,在研究对比不同算法的泛化性能时,我们用测试集上的判别效果来估计模型在实际使用时的泛化能力,而把训练数据另外划分为训练集和验证集,基于验证集上的性能来进行模型选择和调参;
- 标记
- 泛化
*1.3归纳偏好
1.4发展历史和学习材料
(1)发展历史
- 二十世纪八十年代是机器学习成为一个独立的学科领域、各种机器学习技术百花初绽的时期;
- 二十一世纪初,连接主义学习又卷土重来,掀起了以"深度学习"为名的热潮.所谓深度学习;狭义地说就是"很多层"的神经网络;
- 神经网络在二十世纪八十年代中期走红,与当时Intel x86 系列微处理器与内存条技术的广泛应用所造成的计算能力、数据访存效率比七十年代有显著提高不无关联.深度学习此时的状况,与彼时的神经网络何其相似.
(2)学习材料
- 最重要的国际学术会议是国际机器学习会议(ICML) 、国际神经信息处理系统会议(NIPS)和国际学习理论会议(COLT) ;
- 最重要的国际学术期刊是Journal of Machine Learning Research 和Machine Learning.
- 统计学领域的重要期刊如Annals of statistical等也常有关于统计学习方面的理论文章发表.
- 人工智能领域
- 数据挖掘领域
- 计算机视觉与模式识别领域
- 神经网络领域
chap2 模型评估与选择
2.1相关概念
- 精度和误差
- 过拟合和欠拟合
- 模型选择:调参,网格法
- 经验误差、泛化误差和测试误差
我们希望得到泛化误差小的学习器.然而,我们事先并不知道新样本是什么样,实际能做的是努力使经验误差最小化.,以测试集上的"测试误差" (testing error)作为泛化误差的近似。
- 计算测试误差的方法:留出法,CV法,自助法;注意各个方法的思想,使用场景,优缺点;
2.2性能度量
- 回归任务最常用的性能度量是"均方误差"
- 分类任务:(1) 查准率P 与查全率R
*(2)AUC,ROC
* (3)代价敏感错误率与代价曲线
2.3比较检验
- 目的:来对学习器的性能进行评估比较
- 常用方法(p37)
2.4偏差与方差
- 目的:
了解它"为什么"具有这样的性能";偏差方差分解" (bias-variance decomposition)是解
释学习算法泛化性能的一种重要工具.
- 重要公式及解读:
泛化误差可分解为偏差、方差与噪声之和.
- 可视化:
补充说明:
- 本人为统计学专业学生,有统计基础;
- 该笔记为个人学习《西瓜书》的重点笔记,主要列一些自己觉得重要的内容,帮助自己理清逻辑,方便后续复习;
- 第一二章,后面随着学习深入会不断补充完善;
- 分享出来,请大家批评指正!