《机器学习》学习笔记(第1-2章)【西瓜籽队-松泽】

《机器学习》学习笔记(第1-2章)

参考:Datawhale 吃瓜教程(https://www.bilibili.com/video/BV1Mh411e7VU)

第1章 绪论

机器学习研究在计算机上从数据中产生“模型”的算法,基于学习所得的模型可以对新数据进行预测。从科学推理的视角来看,机器学习视为一个从样例中进行归纳的过程,即“归纳学习”。

可以把布尔概念学习的过程看做一个在假设空间搜索与训练集相匹配的假设的过程。可能有多个假设与训练集一致,这些假设构成的集合被称为版本空间。一个具体且有效的机器学习算法需要从版本空间中确定一个满足归纳偏好的模型。奥卡姆剃刀原则常被用于引导算法确立归纳偏好。

第2章 模型评估与选择

过拟合是机器学习面临的关键障碍,它是指经验误差很小的学习器可能产生较大的泛化误差

可通过实验测试来对学习器的泛化误差进行评估并选择。为此,需使用一个测试集来测试学习器对新样本的判别能力,以测试误差来作为泛化误差的近似。

给定数据集 D D D,可以通过如下几种方法产生训练集 S S S和测试集 T T T

  1. 留出法。直接将数据集划分为两个互斥的集合,一个作为测试集,一个作为训练集。
  2. 交叉验证法。将数据集划分为 k k k个大小相似的互斥子集,每次 k − 1 k-1 k1个子集的并集作为测试集,余下的子集作为训练集。该方法将进行 k k k次训练和测试,最终返回 k k k个测试结果的均值。当 k = 1 k=1 k=1时,该方法又称为留一法
  3. 自助法。给定包含 m m m个样本的数据集 D D D,进行 m m m次有放回的采样产生数据集 D ′ D^{\prime} D,然后将 D ′ D^{\prime} D作为训练集、将 D ∖ D ′ D\setminus D^{\prime} DD作为测试集。该方法适用于数据集较小,难以有效划分测试集\训练集时使用。

性能度量是衡量模型泛化能力的评价标准,即把学习器预测结果 f ( x ) f(x) f(x)与真实标记 y y y进行比较。回归任务最常用的性能度量是均方误差,分类任务较常用的性能度量为ROC与AUC。

统计假设检验为学习器的性能比较提供了重要的依据。最基本的检验是在一个数据集上比较两个算法的性能,可采用交叉验证 t t t检验(对应于交叉验证法)或McNemar检验(对应于留出法)。若需要在一组数据上对多个算法进行比较,则可以采用Friedman检验和Nemenyi后续检验。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值