Bagging与随机森林------机器学习

上一篇博文中我们介绍了串行训练基分类器的方法--Boosting以及它的代表性算法AdaBoost,接下来我们一起了解一下并行训练基分类器的方法---Bagging,这种方式中基分类器并没有依赖关系。

Bagging

Bagging是并行式集成方式最著名的代表,它直接基于自助采样法。给定包含m个样本的数据集,我们使用有放回的采样方式进行m次采样,每次采样一个样本,这样经过m次我们还是得到了m个样本的数据集,初始训练集中有的样本在采样集中多次出现,有的从来没有出现,可以计算出有多少样本在m次采样中从来没有出现过:

上面这个式子应该不难理解,一次采样中,被采到的概率是1/m,没有被采到的概率是1-1/m,那么如果m次都没有采到,这样的概率就是上面的计算结果。

照这样,我们可以采样出T个含m个训练样本的采样集,然后基于每个采样集训练出一个基学习器,再将这些基学习器进行结合,这就是Bagging的基本流程。在对预测结果进行结合时,Bagging通常对分类任务使用简单的投票法,对于回归任务使用简单平均法。如果分类任务中出现两个类收到同样票数的情况,最简单的做法就是随机选择一个。

Bagging中训练基分类器的好而不同体现在哪里

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值