第一章 绪论

第一章 绪论

基本术语

  1. D={X1,X2,X3,…,Xm}表示包含m个示例的数据集。第一个示例X1={xi1,xi2,…,xid}是d维样本空间X重的一个向量,Xij是Xi在第j个属性上的取值,例如第三个西瓜在第一个属性上的取值为青绿。
    在这里插入图片描述

  2. 预测模型:我们欲预测的是离散值,例如判断西瓜只有好和坏之分(0,1)

  3. 回归模型:我们欲预测的是连续值,例如西瓜的成熟度0.95,0.37

  4. 监督学习:训练数据集有标记信息,代表是分类和回归

  5. 无监督学习:训练数据集没有标记信息,代表是聚类

  6. 泛化能力:机器学习学得的模型适用于新样本的能力

归纳偏好

  1. 假设点分布在平面上(如图所示),有无数条线可以穿过这些数据点,根据Occam’ razor(奥卡姆剃刀)原则:若有多个假设与观察一致,则选最简单的那个,那我们假设平缓为最简单,那么就应该选择A曲线。
    在这里插入图片描述
  2. 归纳偏好对应了学习算法本身所做出的关于“什么样的模型更好”的假设,我们很难说适用于一个数据的模型就一定适用于另外一个数据,这是显而易见的。

在这里插入图片描述

  1. 通过对总误差的求解我们发现,总误差与学习算法无关
    在这里插入图片描述
    在这里插入图片描述
  2. No Free Lunch Theorem (NFL定理):在所有问题出现的机会相同、或所有问题同等重要的前提下,无论学习算法Ea多聪明,学习算法Eb多笨拙,它们的期望性能都相同的。NFL定理最重要的寓意是告诉我们脱离具体问题空谈最优学习算法是毫无意义的。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值