Python3入门机器学习之11.2 Bagging和Pasting

Python3入门机器学习

11.2 Bagging和Pasting

集成学习就是集成多个算法,让不同的算法对同一组数据进行分析得到结果,最终投票来看哪个结果是大家公认的更好的、更正确的结果。但是这样进行集成学习还是有问题,最大的问题就是:虽然有很多机器学习方法,但是从投票的角度看,仍然不够多。如果我们想保证有一个好的结果,我们希望有更多的投票者才能保证结果可信,类似于概率论里的大数定理。

所以,我们要创建更多的子模型,集成更多子模型的意见。更加重要的是子模型之间不能一致,也就是说子模型之间要有差异性。

怎样创建更多的子模型,并且保证子模型之间具有差异性呢?一个简单的办法就是每个子模型只看样本数据的一部分。例如:一共有500个样本数据,而每个子模型只看100个样本数据。

每个子模型不需要太高的准确率,这也是集成学习的威力。例如:
在这里插入图片描述
在这里插入图片描述

可以看到,随着子模型数量的增加,相应的集成学习的整体准确率也是在不断上升的。

如何创建子模型之间具有差异性呢?
由于每个子模型只看样本数据的一部分,所以取样有两种方式:放回取样和不放回取样。放回取样:Bagging;不放回取样:Pasting。Bagging更常用。统计学中,放回取样为bootstrap。

通常在集成学习中,我们要集成成百上千个子模型的话,首选是决策树模型。原因在于决策树这种非参数的学习方式更能产生出差异相对比较大的这种子模型,它里面有很多的参数、很多的剪枝方式等都能帮助我们使得我们集成的每一个子模型更加的有差异,或者说更加的随机。而集成学习喜欢我们集成的每一个子模型要有区别。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值