【集成学习】boosting-bagging-random forest

集成学习中三个著名的算法boosting、bagging和random forest.

bagging算法使用了重采样的方法:即样本有放回的采样。

boosting:以AdaBoost为例。学习器的训练过程为串行。首先将初始训练集中的每一个样本(假设有m个)的权重设置为1/m。然后对每一个训练集进行T轮训练,在一轮训练中将错分的样本的权重提高。在一个训练集完成之后,新的训练集也有了相应的权重。

bagging:bagging是基学习器对每一个训练集进行训练,对分类问题采用学习器投票法,对回归问题采用学习器的简单平均法。

random forest:random forest是bagging算法的一个延展算法。基学习器采用决策树,在对每一个训练集训练时候采用随机的特征子集进行训练,分类和决策方法与bagging类似。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值