西瓜书+南瓜书第1、2章学习总结-Task01-202110

第一章 绪论

1.2 基本术语

    一般的令D=\{x_1,x_2,\dots,x_m\}表示包含m个示例的数据集,每个示例由d个属性描述,则每个示例x_i=(x_{i1};x_{i2};\dots\;x_{id})是d维样本空间中的一个向量,其中x_{ij}x_i在第j个属性上的取值,d称为样本的“维数”。

    从数据中学得模型的过程称为“学习”或“训练”。若想要预测的数据是离散值,此类学习任务称为“分类”。若想要预测的数据是连续值,此类学习任务称为“回归”。

     根据训练数据是否拥有标记信息,学习任务可大致划分为两大类:“监督学习”和“无监督学习”,分类和回归是前者的代表,而聚类是后者的代表。

    机器学习的目标是使学得的模型能很好的适用于“新样本”,称为“泛化”能力,具有强泛化能力的模型能很好的适用于整个样本空间。

1.3 假设空间

      可以把学习过程看作一个在所有假设组成的空间中进行搜索的过程,搜索目标是找到与训练集匹配的假设。

     需注意的是,现实问题中我们面临很大的假设空间,但学习过程是基于有限样本训练进行的,因此可能有多个假设与训练集一致,即存在着一个与训练集一致的“假设集合”,称之为“版本空间”。

1.4归纳偏好

      任何一个有效的机器学习算法必有其归纳偏好,归纳偏好对应了学习算法本身所做出的关于“什么样的模型更好”的假设。

      根据“没有免费的午餐”定理,简称NFL定理,脱离具体问题,空泛地谈论“什么学习算法更好”没有意义。要讨论算法的相对优劣,必须针对具体的学习问题。在某些问题上表现好的算法,在另一些问题上却可能不尽如人意。

第2章  模型评估与选择

2.1 经验误差与过拟合

     一般把学习器的实际预测输出与样本的真实输出之间的差异称为“误差”。学习器在训练集上的误差称为“训练误差”。在新样本上的误差称为“泛化误差”。我们更希望得到泛化误差小的学习器。

  当学习器把训练样本学得“太好”,很可能把训练样本自身的一些特点当作了所有潜在样本的一般性质,这样就会导致泛化性能下降,称为“过拟合”。过拟合无法彻底避免,只能减小其风险。

2.2 评估方法

2.2.1 留出法

直接将数据集划分为两个互斥的集合,一个做训练集,一个做测试集

2.2.2 交叉验证法

将数据集划分为k个大小相似的互斥子集,k-1个子集做为训练集,余下的那个子集做测试集。可进行k次训练和测试,最后返回k个测试结果的均值。

2.2.3 自助法

通过自助采样的方法,生成训练集和测试集。

2.2.4 调参和最终模型

除了要对适用的学习算法进行选择,还需要对算法参数进行设定,称为“参数调节”或简称“调参”。

2.3 性能度量

回归任务最常用的性能度量是“均方误差”

2.3.1 错误率与精度

2.3.2 查准率、查全率与F1

TP:真正例 ;FP: 假正例;FN:假反例;TN:真反例

查准率P=TP/(TP+FP)

查全率R=TP/(TP+FN)

F1=2*P*R/(P+R)

2.3.3 ROC与AOC

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值