分类算法 -- 集成学习bagging算法(理论介绍)以及bagging和Adaboost的区别

       在前一篇中,我们介绍了集成学习中的Adaboost算法。本文中,我们将介绍集成学习中另一个很有名的算法----bagging算法。


算法步骤

bagging算法在原理上比Adaboost算法要更加简单。

Step 1: 通过自助法(有放回抽样)生成k个数据集,即在所有的样本中通过有放回的随机抽样,生成k个数据集。

Step 2: 对这k组数据集分别进行训练,从而得到k个分类器

Step 3: 将这k个分类器组合到一起,各个分类器的权重相同,从而得到最终的分类器。

在这里插入图片描述


算法详解

Step 1 值得关注的有

  1. 自助法详解
  2. 假设在原始数据集中共有n个样本,则我们选取的每一个数据集都要有n个数据。
  3. 通过有放回抽样的方式抽取数据,会导致数据集中有重复的数据,这是正常的。
  4. 在每一次抽取中,大概会有35%(计算过程详见上述文档:
  • 7
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值