决策树系列(一):集成学习(ensemble learning)->boosting与bagging的区别

本文介绍了集成学习中的两种重要策略——Bagging和Boosting。Bagging通过随机采样构建多个独立分类器,降低方差,常用于随机森林;Boosting则是迭代过程,每个分类器在前一个基础上构建,减少偏差,如AdaBoost和GBDT。
摘要由CSDN通过智能技术生成

我们在学习决策树、随机森林、GBDT等等算法的时候,会遇到这样一个单词ensemble learning:集成学习。前几种算法都属于集成学习的范畴。

下面来简单介绍一下,经常使用到的集成学习策略,集成学习下有两个重要的算法策略Bagging和Boosting。

(一)Bagging算法

构建多个基分类器,各个基分类器之间相互独立,每个基分类器都随机从原样本中做有放回的采样(自主采样),然后在这些采样后的样本上训练该基分类器。每一个单独的分类器都这样操作,然后再把这些分类器的结果组合起来。对于分类问题,样本最后的预测值就是这些分类器中的众数(多数投票原则),对于回归问题,最后的预测值就是这些分类器预测值的平均值。
  对于Bagging算法来说,算法会并行地训练很多不同的分类器,然后采用多数投票原则/平均值原则。这样的做法,会使得在同一批样本上,训练出来的模型方差(variance)小 ,因为是结合了多个分类器的结果,所以对于每个基分类器来说,目标就是如何降低偏差(bias),所以我们一般会采用深度很深甚至不剪枝的决策树作为基分类器。代表算法是随机森林。
  Bagging适用于高方差低偏差模型,或者可以说是复杂模型。

(二)Boosting算法

boosting,“提升”,一般都是一个迭代的过程,迭代地训练一系列的基分类器,每一个基分类器都是在上一个基分类器的基础之上构建的&

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值