机器学习: 提升

Github

系列文章 pdf 版本已经上传至: https://github.com/anlongstory/awsome-ML-DL-leaning/tree/master/xiaoxiang-notes
欢迎 Star 和下载 ?

提升的概念理解

这部分是紧紧衔接《机器学习: 决策树与随机森林》 部分内容的。首先说明一个它们与随机森林方法的区别

与随机森林的比较
  • 随机森林是随机选择 k 个特征去构建 CART 树,重复 m 次,得到的 m 个决策树的最终结果求平均得到最后的结果。这些模型之间相互是独立产生的,只是最后投票的时候将它们结果联系在一起。
  • 提升的方法思想是每一步产生一个弱预测模型(如决策树),并加权累加到总模型中。现在第 n 项的模型预测都是依赖前面 n-1 项的结果得到的,依据的是损失函数的梯度方向,所以称之为梯度提升(Gradient Boosting)
提升算法

梯度提升算法首先给定一个目标损失函数,它的定义域是所有可行的弱函数集合(基函数),提升算法通过迭代的选择一个负梯度方向上的基函数来逐渐逼近局部极小值
上面这段话转化成机器学习中的概念和数学表达就是:
首先要给定一个目标损失函数:
目标函数是从我们的数据中得到的,我们表示输入数据为: ( x 1 → , y 1 ) , ( x 2 → , y 2 ) , . . . , ( x n → , y n ) (\overrightarrow {x_1},y_1),(\overrightarrow {x_2},y_2),... ,(\overrightarrow {x_n},y_n) (x1 ,y1),(x2 ,y2),...,(xn ,yn),其中 x i → \overrightarrow {x_i} xi 表示输入向量, y i y_i yi 代表对应的标签,目标是找到一个近似函数 F ^ ( x → ) \hat{F}(\overrightarrow {x}) F^(x ) 使得损失函数 L ( y , F ( x ) ) L\left( y,F(x)\right) L(y,F(x)) 的损失值最小,这里的损失函数典型的就是:
L ( y , F ( x ) ) = 1 2 ( y − F ( x ) ) 2 L\left( y,F(x)\right)=\frac{1}{2}\left( y-F(x)\right)^2 L(y,F(x))=21(yF(x))2 L ( y , F ( x ) ) = ∣ y − F ( x ) ∣ L\left( y,F(x)\right)=\left|y-F(x)\right| L(y,F(x))=yF(x)
现在可以假设我们的 F ( x ) F(x) F(x) 是一族基函数 f i ( x ) f_i(x) fi(x) 的加权和:
F ( x → ) = ∑ i = 1 M γ i f i ( x ) + c o n s t F \left ( \overrightarrow{x} \right )=\sum_{i=1}^{M} \gamma_i f_i(x)+const F(x )=i=1Mγifi(x)+const

(1)

我们以贪心的思路来扩展 F ( x ) F(x) F(x) 中的基函数,但是每次要选择最优的基函数还是很困难,所以这里任然使用 梯度下降 算法近似计算。
将所给样本代入基函数 f ( x ) f(x) f(x) 得到 f ( x 1 ) , f ( x 2 ) , . . . , f ( x n ) f(x_1),f(x_2), ... , f(x_n) f(x1),f(x2),...,f(xn), 从而可以得到关于目标函数 L L L的向量,为 L ( y 1 , f ( x 1 ) ) , L ( y 2 , f ( x 2 ) ) , . . . , L ( y n , f ( x n ) ) L(y_1,f(x_1)),L(y_2,f(x_2)), ... , L(y_n,f(x_n)) L(y1,f(x1)),L(y2,f(x2)),...,L(yn,f(xn)),我们对这个向量对于 f f f 求偏导,让它们沿着 负梯度方向下降一点点:
F m ( x → ) = F m − 1 ( x → ) − γ m ∑ i = 1 n ▽ f L ( y i , F m − 1 ( x → ) ) F_m(\overrightarrow{x})=F_{m-1}(\overrightarrow{x}) - \gamma_m \sum_{i=1}^{n}\bigtriangledown _fL(y_i,F_{m-1} (\overrightarrow{x})) Fm(x )=Fm1(x )γmi=1nfL(yi,Fm1(x ))
(2)

这里的 γ m \gamma_m γm 就是步长,可以使用线性搜索求最优步长。
γ m = a r g m i n γ ∑ i = 1 n L ( y i , F m ( x → ) ) \gamma_m= \underset{\gamma}{argmin} \sum_{i=1}^{n}L(y_i,F_m(\overrightarrow{x})) γm=γargmini=1nL(yi,Fm(x ))
(3)

综上所述:

  • 我们可以先给定一个初始基函数 F 0 ( x ) = a r g m i n γ ∑ i = 1 n L ( y i , γ ) F_0(x)=\underset{\gamma}{argmin} \sum_{i=1}^{n}L(y_i, \gamma) F0(x)=γargmini=1nL(yi,γ),然后通过求偏导计算为伪残差 : r i m = [ ∂ L ( y i , F ( x → ) ) ∂ F ( x → ) ] F ( x → ) = F m − 1 ( x → ) r_{im}=\left[ \frac{\partial L(y_i,F( \overrightarrow{x}))}{\partial F( \overrightarrow{x})} \right]_{F( \overrightarrow{x})=F_{m-1}(\overrightarrow{x})} rim=[F(x )L(yi,F(x ))]F(x )=Fm1(x )
  • 使用数据 ( x → i , r i m ) ( \overrightarrow{x}_i,r_{im}) (x i,rim) 计算拟合残差的基函数 f m ( x ) f_m(x) fm(x)
  • 使用公式(3)计算步长 r m r_m rm
  • 更新模型 F m ( x → ) = F m − 1 ( x → ) − γ m f m ( x i → ) F_m(\overrightarrow{x})=F_{m-1}(\overrightarrow{x}) - \gamma_mf_m(\overrightarrow{x_i}) Fm(x )=Fm1(x )γmfm(xi )

GBDT

梯度提升树(GBDT)的基函数就是决策树(CART 树),第 m 步的梯度提升是根据伪残差数据计算第 m 棵决策树 t m ( x ) t_m(x) tm(x) 的。这里我们可以令树 t m ( x ) t_m(x) tm(x) 的叶节点数目为 J J J,这样决策树就将输出空间划分成了 J J J 个不相交的区域 R 1 m , R 2 m , . . . , R j m R_{1m},R_{2m},...,R_{jm} R1m,R2m,...,Rjm,并且决策树可以在每个区域中给出某个类型的确定性预测。

以上面图为例,这里 J = 3 J=3 J=3,对应的确定性预测值就是下面的 +2,+0.1,-1,所以对于决策树,对于输入 x x x ,决策树可以表示为:
t m ( x ) = ∑ j = 1 J b j m I ( x ∈ R j m ) t_m(x)= \sum_{j=1}^{J}b_{jm}I(x \in R_{jm}) tm(x)=j=1JbjmI(xRjm)

(4)

其中 b j m b_{jm} bjm 是样本 x x x 在区域 R j m R_{jm} Rjm 的预测值。
所以根据上面的分析,这里直接可以将基函数表示成公式(4)的形式,代入公式(3)可得:
γ m = a r g m i n γ ∑ i = 1 n L ( y i , F m − 1 ( x → ) + γ t m ( x → ) ) \gamma_m= \underset{\gamma}{argmin} \sum_{i=1}^{n}L(y_i,F_{m-1}(\overrightarrow{x})+\gamma t_m(\overrightarrow{x})) γm=γargmini=1nL(yi,Fm1(x )+γtm(x ))
(5)

对树的每个区域分别采用线性搜索计算步长,从而系数 b j m b_{jm} bjm 被合并到步长中。

参数设置和正则化

对训练集过度拟合会降低模型的泛化能力,所以训练过程中需要加入一些正则化技术来降低过拟合:

  • 复杂度使用叶节点个数或者叶节点预测值的平方(一般叶节点树为 4-8 之间)
  • 决策树剪枝 (包括对包含最少样本数目做限制)
  • 梯度提升的迭代次数也要注意

当损失函数是最小平方误差、绝对值误差时 GBDT 解决的是回归问题,当损失函似是多类别的 Logistic 似然函数则是分类问题。

XGBoost

前面提到,一颗决策树的核心就是树结构和叶权值。XGBoost 主要就是采用泰勒展开式:
f ( x + △ x ) ≈ f ( x ) + f ′ ( x ) △ x + 1 2 f ′ ′ ( x ) △ x 2 f(x+\bigtriangleup x) \approx f(x) + f ' (x) \bigtriangleup x+ \frac{1}{2} f''(x) \bigtriangleup x^2 f(x+x)f(x)+f(x)x+21f(x)x2

(6)

将二阶导数信息加入考虑范围,这里用 g i g_i gi 表示一阶导数, h i h_i hi 表示二阶导数,定义:
G j = ∑ i ∈ I j g i , H j = ∑ i ∈ I j h i G_j=\sum_{i \in I_{j}}g_i,H_j=\sum_{i \in I_{j}}h_i Gj=iIjgiHj=iIjhi
(7)

最终经过复杂的推导,这里使目标函数对预测权值求偏导可以得到:
w j = − G j H j + λ w_j= - \frac{G_j}{H_j+ \lambda} wj=Hj+λGj
代回目标函数可以得到:
J ( f t ) = − 1 2 ∑ j = 1 T G j 2 H j + λ + γ T J(f_t)= -\frac{1}{2}\sum_{j=1}^{T} \frac{G_j^2}{H_j+ \lambda}+ \gamma T J(ft)=21j=1THj+λGj2+γT
(8)

这里的 T T T 表示叶节点的个数。以下面的图来做一个举例,假设有 5 个样本,它们对应的一阶,二阶梯度信息就是 g j , h j g_j,h_j gj,hj,这样的决策树

对于当前节点,我们可以计算所有可行的划分后的 J ( f t ) J(f_t) J(ft) ,然后选择所有可行划分中 J ( f t ) J(f_t) J(ft) 最小的分割点,换而言之,我们枚举可行的分割点,选择增益最大的划分,继续同样的操作,直到满足某阈值或得到纯节点,这里计算收益的公式可以表示为:
G a i n ( ϕ ) = 1 2 [ G L 2 H L + λ + G R 2 H R + λ − ( G L + G R ) 2 H L + H R + λ ] − γ Gain(\phi)= \frac{1}{2} \left[ \frac{G_L^2}{H_L+ \lambda} + \frac{G_R^2}{H_R+ \lambda}- \frac{(G_L+G_R)^2}{H_L+H_R+ \lambda} \right] - \gamma Gain(ϕ)=21[HL+λGL2+HR+λGR2HL+HR+λ(GL+GR)2]γ

(9)

这里的下标 G L G_L GL, G R G_R GR 分别表示当选择一个分割点时,被划分到对应左右两边区域的一阶梯度总合。

所以综上所述:
相较于 GBDT ,XGBoost 使用可二阶导数信息,可以更快的在训练集上收敛,也属于随即森林类的方法,本身比较容易过拟合,因为实现过程中使用了并行/多核运算,所以它的速度比较快。

Adaboost

前面介绍的两个 GBDT, XGBoost 都是通过前面的模型来推断出下一个模型,这一小节要介绍的 Adaboost (自适应性提升方法)则是对训练数据集每个样本赋予一个权值,然后在每次迭代的过程中对这个权值分布进行不断调整,包括计算出每个模型的权值系数,最后叠加,由多个弱分类器叠加成一个强分类器。
首先划分问题的每个基本分类器看作是一个二分类问题: G m ( x ) : χ ∈ { − 1 , + 1 } G_m(x): \chi \in \left \{ -1,+1 \right \} Gm(x):χ{1,+1}
基本分类器的分类误差可以表示为: e m = ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) e_m=\sum_{i=1}^{N}w_{mi}I(G_m(x_i) \neq y_i) em=i=1NwmiI(Gm(xi)̸=yi)
通过上面的误差率计算出当前基本分类器的系数为: α m = 1 2 l o g 1 − e m e m \alpha_m= \frac{1}{2}log\frac{1-e_m}{e_m} αm=21logem1em

(10)

根据上面的分类器系数来更新训练数据集的权值分布,式中的 Z m Z_m Zm 主要是为了归一化操作,使所有权值成一个概率分布:
w m + 1 , i = w m i Z m e x p ( − α m y i G m ( x i ) ) , 其 中 Z m = ∑ i = 1 N w m i e x p ( − α m y i G m ( x i ) ) w_{m+1,i}=\frac{w_{mi}}{Z_m}exp(-\alpha_my_iG_m(x_i)),其中 Z_m=\sum_{i=1}^{N}w_{mi}exp(-\alpha_my_iG_m(x_i)) wm+1,i=Zmwmiexp(αmyiGm(xi)),Zm=i=1Nwmiexp(αmyiGm(xi))

(11)

最后构建的分类器就是所有基本分类器的线性组合:
f ( x ) = ∑ m = 1 M α m G m ( x ) f(x)=\sum_{m=1}^{M}\alpha_mG_m(x) f(x)=m=1MαmGm(x)
(12)

这里以李航博士《统计学习方法》中的例子说明上述算法。
首先假设我们有 10 个数据点,对应编号 X 为 0-9,它们对应的标签为 { − 1 , + 1 } \{ -1,+1\} {1,+1}

X0123456789
Y111-1-1-1111-1
W0.10.10.10.10.10.10.10.10.10.1

刚开始我们都是假设权值均匀分布(认为重要性相同),所以均值都为 1 N \frac{1}{N} N1, N N N 为样本个数。经过计算我们的阈值设为 2.5 的时候基本分类器的分类误差率使最低的,所以第一个分类器为:
G 1 ( x ) = { 1 , x &lt; 2.5 − 1 , x &gt; 2.5 G_1(x)=\left\{\begin{matrix} 1 ,x&lt;2.5\\ -1,x&gt;2.5 \end{matrix}\right. G1(x)={1,x<2.51,x>2.5
这时候的误差率为 e 1 = 0.3 e_1=0.3 e1=0.3 (刚开始权值相同,阈值 2.5 的时候,10个里面分类错了 3 个,所以为 0.3),计算出 G 1 G_1 G1 的系数:
α 1 = 1 2 l o g 1 − e 1 e 1 = 0.4236 \alpha_1= \frac{1}{2}log \frac{1-e_1}{e_1}=0.4236 α1=21loge11e1=0.4236
所以当前分类器为 f 1 ( x ) = 0.4236 ∗ G 1 ( x ) f_1(x)=0.4236*G_1(x) f1(x)=0.4236G1(x),分类器 s i g n ( f 1 ( x ) ) sign(f_1(x)) sign(f1(x)) 在训练集上有 3 个误分类点。
对于上面的结果使用公式(11)进行计算,得到新的权值分布为:

X0123456789
Y111-1-1-1111-1
W0.07150.07150.07150.07150.07150.07150.16660.16660.16660.0715

可以看到刚才分错的 3 个样本的权值比其他正确分类的都要大了,模型会放更多的精力在这些分错的例子上。
通过比较不同的阈值得到在这个分布上,阈值取 8.5 时误差率最低,这时基本分类器为:
G 2 ( x ) = { 1 , x &lt; 8.5 − 1 , x &gt; 8.5 G_2(x)=\left\{\begin{matrix} 1 ,x&lt;8.5\\ -1,x&gt;8.5 \end{matrix}\right. G2(x)={1,x<8.51,x>8.5
这时候的误差率为 e 2 = 0.2143 e_2=0.2143 e2=0.2143 (这时候分错的是 x<8.5 左边的 3 个标签为 -1 的样本,所以为 0.0715*3)
α 2 = 1 2 l o g 1 − e 2 e 2 = 0.6496 \alpha_2= \frac{1}{2}log \frac{1-e_2}{e_2}=0.6496 α2=21loge21e2=0.6496
所以当前分类器为 f 2 ( x ) = 0.4236 ∗ G 1 ( x ) + 0.6496 ∗ G 2 ( x ) f_2(x)=0.4236*G_1(x)+0.6496*G_2(x) f2(x)=0.4236G1(x)+0.6496G2(x), 分类器 s i g n ( f 2 ( x ) ) sign(f_2(x)) sign(f2(x)) 在训练数据集上有 3 个误分类点。
对于上面的结果使用公式(11)进行计算,得到新的权值分布为:

X0123456789
Y111-1-1-1111-1
W0.04550.04550.04550.16670.16670.16670.10600.10600.10600.0455

通过比较不同的阈值得到在这个分布上,阈值取 5.5 时误差率最低,这时基本分类器为:
G 3 ( x ) = { 1 , x &gt; 5.5 − 1 , x &lt; 5.5 G_3(x)=\left\{\begin{matrix} 1 ,x&gt;5.5\\ -1,x&lt;5.5 \end{matrix}\right. G3(x)={1,x>5.51,x<5.5
这时候的误差率为 e 3 = 0.1820 ( 0.0455 ∗ 4 ) e_3=0.1820(0.0455*4) e3=0.1820(0.04554)
α 3 = 1 2 l o g 1 − e 3 e 3 = 0.7514 \alpha_3= \frac{1}{2}log \frac{1-e_3}{e_3}=0.7514 α3=21loge31e3=0.7514
所以当前分类器为 f 3 ( x ) = 0.4236 ∗ G 1 ( x ) + 0.6496 ∗ G 2 ( x ) + 0.7514 ∗ G 3 ( x ) f_3(x)=0.4236*G_1(x)+0.6496*G_2(x)+0.7514*G_3(x) f3(x)=0.4236G1(x)+0.6496G2(x)+0.7514G3(x),分类器 s i g n ( f 3 ( x ) ) sign(f_3(x)) sign(f3(x)) 在训练数据集上有 0 个误分类点。

还可以根据当前的模型系数,继续更新权值分布,只是本题到这里已经满足需求了。

算法总结

上面通过对实例讲解介绍了 Adaboost 的基本步骤和计算方法,其中直接给出的权重计算公式(10)和权重调整公式(11)背后都是有前向分布算法包括一些复杂的数学推导的,这里能力有限,就不展开介绍,有兴趣的读者可以自行查找对应资料。

Adaboost 算法是模型为加法模型、损失函数为指数函数、每一个基函数的学习算法为前向分布算法时的二类学习方法。,其训练误差是以指数速率下降的,因为它不需要事先知道下届 γ \gamma γ,具有自适应性(Adaptive)。

Bagging 能够减少训练方差(Variance),对于不剪枝的决策树、神经网络等学习器有良好的集成效果。Boosting 减少偏差(Bias),能够基于泛化能力较弱的学习器构造强学习器。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值