[学习记录] Boosting和Bagging

[学习记录] Boosting和Bagging

BoostingBagging
基学习器基学习器
互相强依赖互相无依赖
串行并行
H ( x ) = ∑ t = 1 T α t h t ( x ) H(x)=\sum_{t=1}^{T}\alpha_{t}h_{t}(x) H(x)=t=1Tαtht(x) H ( x ) = arg ⁡ min ⁡ y ∈ Υ ∑ t = 1 T I ( h t ( x ) = y ) H(x)=\mathop{\arg\min}_{y \in \Upsilon } \sum_{t=1}^{T}\mathbb{I}(h_{t}(x)=y) H(x)=argminyΥt=1TI(ht(x)=y)
对于训练,两种数据重构方式 re-weighting和re-sampling一般都使用re-sampling,所以有了随机森林
re-weighting可能问题:AdaBoost算法每一轮都要检查基学习器是否满足比随机猜测好,一旦不满足就停止训练,可能远未达到设定的学习轮数,导致生成的学习器种类少、效果差优点:时间复杂度T(O(m)+O(s)),决策部分O(s)可以忽略不记,基本与基学习器同阶
re-sampling每次都要新抽样,相当于重新训练,不会出现训练过程中过早停止的情况优点:标准AdaBoost只适用于二分类,Bagging能不做调整用于多分类、回归等问题。
更关注降低偏差,因此Boosting能基于泛化性能相当弱的学习器构建出很强的集成更关注降低方差,因此它在不剪枝决策树、神经网络等易受样本干扰的学习器上效果好
设定每一个基学习器的方差为 δ 2 \delta^{2} δ2,当两两基学习器相关性为 ρ \rho ρ时,n个随机变量的方差为 ρ ∗ δ 2 + ( 1 − ρ ) ∗ δ 2 / 2 \rho*\delta^{2}+(1-\rho)*\delta^{2}/2 ρδ2+(1ρ)δ2/2,特别的,当两两不相关时,为 δ 2 / n \delta^{2}/n δ2/n,直接是原来的1/n

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值