集成学习之 Boosting 与 Bagging

本文介绍了集成学习的两种主要方法:Boosting和Bagging。Boosting通过迭代式学习降低偏差,如Adaboost、GBDT、XGBoost;而Bagging则采用集体投票决策降低方差,如随机森林。集成学习的基本步骤包括训练误差独立的基分类器,如决策树和神经网络,并合并它们的结果。文章还探讨了偏差与方差在模型性能中的作用。
摘要由CSDN通过智能技术生成

集成学习的分类

Boosting —— 串行 —— 迭代式学习 —— 降偏差

  • Boosting 方法训练基分类器时采用串行的方式,各个基分类器之间有依赖。
  • Boosting 的基本思路是将基分类器层层叠加,每一层在训练的时候,对前一层基分类器分错的样本,给予更高的权重。测试时,根据各层分类器的结果的加权得到最终结果。
  • Boosting方法是通过逐步聚焦于基分类器分错的样本,减小集成分类器的偏差。

Adaboost、GBDT、XGBoost

Bagging —— 并行 —— 集体投票决策 —— 降方差

  • Bagging 方法在训练过程中,各基分类器之间无强依赖,可以进行并行训练。
  • Bagging方法更像是一个集体决策的过程,每个个体都进行单独学习,学习的内容可以相同,也可以不同,也可以部分重叠。但由于个体之间存在差异性,最终做出的判断不会完全一致。在最终做决策时,每个个体单独作出判断,再通过投票的方式做出最后的集体决策。
  • Bagging方法则是采取分而治之的策略,通过对训练样本多次采样,并分别训练出多个不同模型,然后做综合,来减小集成分类器的方差。

随机森林

集成学习的基本步骤

(1)找到误差互相独立的基分类器。
(2)训练基分类器。
(3)合并基分类器的结果。

基分类器

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值