西瓜书第一、二章笔记

以监督学习来介绍一下机器学习的一些基本概念。

数据集

  1. 训练集:有正确标签,用来学习,归纳的数据集。
  2. 测试集 :没有正确标签,用来测试模型的优劣的数据集。

过拟合和欠拟合

  1. 过拟合:当学习器将训练样本学得太好了的时候,很可能已经把训练样本自身的一些特点当作了所以潜在样本都会具有的一般性质,这样就会导致泛化性能下降。
  2. 欠拟合:训练样本的一般性质尚未学好。

评估方法

通常,我们可通过实验测试来对学习器的泛化误差进行评估并进而做出选择,为此,需使用一个“测试集”(testing set)来测试学习器对新样本的判别能力,然后以测试集上的“测试误差”(testing error)作为泛化误差的近似。

通常我们假设测试样本也是从样本真实分布中独立同分布采样所得。其中测试集应该尽可能与训练集互斥,即测试样尽量不在训练集中出现、未在训练过程中使用过。
下面将会提到3种划分训练集和测试集的方法

  1. 留出法(hold-out):直接将训练集D划分为两个互斥的集合,其中一个作为训练集S,另一个作为测试集T,即 D = S ∪ T D=S\cup T D=ST, S ∩ T = ∅ S \cap T = \varnothing ST=。在S上训练出模型后,用T来评估其测试误差,作为对泛化误差的估计。
    * 训练集和测试集的划分要尽可能保持数据分布的一致性。

  2. 交叉验证法(cross validation):先将数据集D划分为k个大小相似的互斥子集,即 D = D 1 ∪ D 2 ∪ . . . ∪ D k , D i ∩ D j = ∅ ( i ≠ j ) D=D_1 \cup D_2 \cup...\cup D_k,D_i \cap D_j = \varnothing(i \neq j) D=D1D2...Dk,DiDj=(i=j)。每个子集都尽可能保持数据分布的一致性,即从D中通过分层抽样得到。然后,每次用k-1个子集的并集作为训练集,余下的那个子集作为测试集;这样就可以获得k组训练/测试集,从而可进行k次训练和测试,最终返回的是这k个测试结果的均值。通常,k=10。
    *假定数据集中D中包含m个样本,k=m时,又称留一法(leave-one-out)。

  3. 自助法:给定包含m个样本的数据集D,有放回抽样m次得到数据集 D ′ D' D, D ′ D' D作为训练集, D ∖ D ′ D \setminus D' DD作为测试集。

性能度量

  • 精度
  • 错误率
  • 查准率与查全率
  • F1-Score
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值