Ensemble Learning 之 Adaboost

Boosting

Boosting 是一种提升方法,将一系列弱学习器组合成为强学习器。基于样本权重的 Boosting 的工作流程是这样的,给定初始训练集构建一个基学习器,根据基学习器对训练样本的分布进行调整,使得先前学习器出错的样本收到更多关注,然后调整样本的权值进行下一个基学习器的学习,直至达到指定的迭代次数,然后将这一些列的基学习器加权组合来得到最后的强学习器。各个学习器的加权系数在算法迭代过程中会通过计算得出,除了基于样本权重的 Adaboost 之外,还有基于梯度的 Gradient Boosting ,这里先给出基于样本权重的 Adaboost 算法,然后细致分析 Adaboost 的推导。

Adaboost

对于二分类问题,Adaboost 算法是基于权重的 Boosting 算法,对于第 m 次迭代,样本用 i 来表示,其权重的形式需要满足:  iwmi=1 ∑iwmi=1 , 下面给出 Adaboost 算法:

输入: 训练集  D={(x1y1),(x2,y2),,(xN,yN)} D={(x1y1),(x2,y2),…,(xN,yN)} ,其中  xin xi∈Rn ,  yi{+1,1} yi∈{+1,−1};

输出:强学习器  G(x) G(x).

1) 初始化权值 : D1=w11,w12,,w1N D1=w11,w12,…,w1N ,其中  w1i=1N w1i=1N , i=1,2,,N i=1,2,…,N

2) for  m=1,2,,M m=1,2,…,M do :

           3) 使用权值分布  Dm Dm 与相应的基学习器算法得到第  m m 个基学习器  Gm(x) Gm(x);

           4) 计算  Gm(x) Gm(x) 的误差:  em=P(Gm(xi)yi)=iwmiI(Gm(xi)yi)=iwmi em=P(Gm(xi)≠yi)=∑iwmiI(Gm(xi)≠yi)=∑iwmi

           5)  Gm(x) Gm(x) 的权重系数:

                     if: if:  em>0.5 em>0.5 : am=0 am=0 不满足准确性,舍弃此基学习器,依然按此学习器进行权值更新

                     else: else:  am=12ln1emem am=12ln⁡1−emem ,可见错误率越高,损失越小。

           6) 更新权值分布,计算下一次迭代的权值  Dm+1=wm+1,1,wm+1,2,,wm+1,N Dm+1=wm+1,1,wm+1,2,…,wm+1,N :

wm+1,i=wmiZmexp(amyiGm(xi)) wm+1,i=wmiZmexp⁡(−amyiGm(xi))

               这里  Zm Zm 为规范化因子, Zm=iwmiexp(amyiGm(xi)) Zm=∑iwmiexp⁡(−amyiGm(xi)) ,使得  Dm Dm 为一个分布。

           7) 分类器加权累加:  f(x)=mamGm(x) f(x)=∑mamGm(x)

8) end for

Adaboost 算法最终得到的强学习器为 :  G(x)=sign(f(x))=sign(mamGm(x)) G(x)=sign(f(x))=sign(∑mamGm(x))

对于 Adaboost 算法的几点说明:

a)基学习器的参数  am am 代表了每个基学习器  Gm(x) Gm(x) 在最终分类器  G(x) G(x) 中的重要程度, 首先注意到对误差项的限制:  0<em0.5 0<em≤0.5 , 所以可以得到  am0 am≥0 ,且  am am 随着  em em 的减小而增大,所以误差率越小的基学习器在最终得到的强学习器中所占的比重越大。

b)将训练样本的权重更新公式写成如下形式:

wm+1,i=1Zmwmieam,Gm(xi)=yi1Zmwmieam ,Gm(xi)yi wm+1,i={1Zmwmie−am,Gm(xi)=yi1Zmwmieam ,Gm(xi)≠yi

由于  am0 am≥0 ,所以很明显可以看出 ,分类错误与分类正确的样本下一次迭代时权值差距将被拉开为  e2am e2am 倍,因此,分类错误的点在下一次迭代时将起到更重要的作用。

c)M 个分类器加权表决时系数为  am am ,需要注意  mam1 ∑mam≠1,弱学习器加权函数  f(x) f(x) 代表了最终学习结果的确信度,类似于线性回归后的  sigmod sigmod 映射 。

d) 至于算法第  5 5 步中关于误差的判断,因为不满足准确性可能会带来负面效果,所以当误差率超过一半时,则会停止迭代,这样导致 Adaboost 执行不到预设的 M 轮,也就没有 M 个基学习器来做组合。这时可以抛弃当前误差较大的及学习器,按照该基学习器的结果重新调整样本权值,进而进入下一次迭代。下面的图很直观的给出了 Adaboost 的过程:

111

以上便是 Adaboost 算法的流程,图来自于 PRML P660,接下来看一下 Adaboost 算法的解释,这里用 Additive Model 迭代优化指数损失的角度来推导一下 Adaboost 算法。

Additive Model

Additive Model 这里我们翻译为加法模型,其形式如下:

f(x)=mβmb(x;γm) f(x)=∑mβmb(x;γm)

这里  b(x;γm) b(x;γm) 为基函数,  γm γm 为基函数的参数, βm βm 为基函数的权重系数,给定训练集  D={(x1y1),(x2,y2),,(xN,yN)} D={(x1y1),(x2,y2),…,(xN,yN)} ,与损失函数  L(y,f(x)) L(y,f(x)) ,加法模型的优化函数如下:

argminβm,γmi=1NL[yi,mβmb(xi;γm)] argminβm,γm∑i=1NL[yi,∑mβmb(xi;γm)]

如上边所示的加法模型,涉及到 M 个基函数的参数与 M 个权值的求解,是一个比较复杂的问题,如果从前向后每一步只学习一个基函数及其系数,便可以大大减小复杂度,这便是前向分步算法

argminβm,γmi=1NL[yi,βmb(xi;γm)] argminβm,γm∑i=1NL[yi,βmb(xi;γm)]

按照迭代优化的思想,每次只优化一个基函数,给出前向分布算法:

输入: 训练集  D={(x1y1),(x2,y2),,(xN,yN)} D={(x1y1),(x2,y2),…,(xN,yN)} ,损失函数  L(y,f(x)) L(y,f(x)) ,基函数集合 F={(b,γm)} F={(b,γm)} 其中  m=1,2,,M m=1,2,…,M.

输出:加法模型  f(x) f(x).

1)  f0(x)=0 f0(x)=0

2)  for for  m=1,2,M m=1,2,…M  do do:

       βm,γm=argminβ,γiL(yi,fm1(xi)+βb(xi;γ)) βm,γm=argminβ,γ∑iL(yi,fm−1(xi)+βb(xi;γ))

       fm(x)=fm1(x)+βmb(ai;γm) fm(x)=fm−1(x)+βmb(ai;γm)

最终得到了想要的加法模型:

f(x)=fM(x)=mβmb(x,γm) f(x)=fM(x)=∑mβmb(x,γm)

可以看到,前向分步实际为一个贪心算法,每次迭代只优化当前的模型。加法模型的形式与 Adaboost 加权组合  f(x)=mamGm(x) f(x)=∑mamGm(x) 明显类似,其实当 Loss Function 为指数损失,基函数为基学习器时,两者是等价的,这里给出一个 Loss Function 的图:68509583_15指数损失函数形式是这样的:

L(y,f(x))=exp(yf(x)) L(y,f(x))=exp(−yf(x))
.

接下来分析一下 Adaboost ,Adaboost 在第  m m 轮迭代中:

fm(x)=fm1(x)+amGm(x) fm(x)=fm−1(x)+amGm(x)

其中  fm1(x) fm−1(x) 为:

fm1(x)=fm2(x)+am1(x)Gm1(x)=a1G1(x)+,,+amGm(x) fm−1(x)=fm−2(x)+am−1(x)Gm−1(x)=a1G1(x)+,…,+amGm(x)

根据 Additive Model ,要使得在当前迭代的损失最小才可得到本轮的参数  am am∗ 与  Gm(x) Gm∗(x):

am,Gm(x)=argmina,Giexp[yi(fm1(xi)+amGm(xi))] am∗,Gm∗(x)=argmina,G∑iexp[−yi(fm−1(xi)+amGm(xi))]

如果改用  wmi wmi 表示  exp[yifm1(xi)] exp[−yifm−1(xi)] (这里  wmi wmi 除了缺少归一化因子外与 Adaboost 完全相同),便可把上式改写为:

am,Gm(x)=argminam,Gmiwmiexp[yiamGm(xi)] am∗,Gm∗(x)=argminam,Gm∑iwmiexp[−yiamGm(xi)]

所以只需求得满足上述条件的等式即可,对于任意的 am>0 am>0 ,首先来看  Gm(x) Gm∗(x) :

Gm(x)=argminGmiwmiI(yiGm(xi)) Gm∗(x)=argminGm∑iwmiI(yi≠Gm(xi))

这里  Gm(x) Gm∗(x) 即为第  m m 轮使得加权训练数据误差率最小的基学习器,接下来极小化  am am 来得到  am am∗

   iwmiexp[yiamGm(xi)]=yi=Gm(xi)wmieam+yiGm(xi)wmieam=yi=Gm(xi)wmieam+yiGm(xi)wmieam+yiGm(xi)wmieamyiGm(xi)wmieam=eamiwmi+(eameam)yiGm(xi)wmi    ∑iwmiexp[−yiamGm(xi)]=∑yi=Gm(xi)wmie−am+∑yi≠Gm(xi)wmieam=∑yi=Gm(xi)wmie−am+∑yi≠Gm(xi)wmie−am+∑yi≠Gm(xi)wmieam−∑yi≠Gm(xi)wmie−am=e−am∑iwmi+(eam−e−am)∑yi≠Gm(xi)wmi

上式对  am am 求导即可,使得倒数为 0 ,即可得到  am am∗ .

am=12log1emem am∗=12log1−emem

其中:

em=yiGm(xi)wmiiwmi=iwmiI(yiGm(xi)) em=∑yi≠Gm(xi)wmi∑iwmi=∑iwmiI(yi≠Gm(xi))

由  fm=fm1+amGm(x) fm=fm−1+amGm(x) 以及  wm=exp[yifm1(xi)] wm=exp[−yifm−1(xi)] 可以得到  wm+1 wm+1 的更新公式:

wm+1,i=wmiexp[yi,amGm(x)] wm+1,i=wmiexp[−yi,amGm(x)]

唯一跟 AdaBoost 不同的是相差一个对因子,以及初始时  f0(x)=0 f0(x)=0 使得参数  w1={1,1,,1} w1={1,1,…,1} ,这其实也是没有进行归一化而已,整个前向分步算法求解 Adaboost 算法的过程正是这样。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值