机器学习之交叉验证(Cross Validation)

为什么要引入交叉验证?

   假如我们需要从某些候选模型中选择适合当前学习问题的模型,我们可以通过不同模型在当前数据集上进行效果验证。这样,我们面临的一个问题是选择出来的模型泛化性差,导致无法适用于新的数据集


与传统的统计学不同的是,机器学习或者数据挖掘更加注重模型的测试性能,不同于统计学,需要经过严谨的理论推导以及模型的精确性,在对样本建立某个特定模型后,用理论去对模型进行各种验证


交叉验证的方法有哪些?

1.简单交叉验证

   随机将样本按照一定的比列,如8:2或者7:3分为训练样本和测试样本,这里称作简单交叉验证集;然后,通过训练样本训练出模型,然后在测试样本上测试精度,选择误差最小的模型。

   但是,我们也要考虑这种情况的不足:当样本总量稀缺,采集困难,这样就无法适用简单交叉验证方法。


2. k-折交叉验证

   k-折交叉验证将样本集随机划分为k份,k-1份作为训练集,1份作为验证集,依次轮换训练集和验证集k次,验证误差最小的模型为所求模型。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值