梯度提升(Gradient boosting)是一种用于回归、分类和排序任务的技术,属于Boosting算法族的一部分。Boosting是一族可将弱学习器提升为强学习器的算法,属于集成学习(ensemble learning)的范畴。Boosting方法基于这样一种思想:对于一个复杂任务来说,将多个专家的判断进行适当的综合所得出的判断,要比其中任何一个专家单独的判断要好。通俗地说,就是“三个臭皮匠顶个诸葛亮”的道理。梯度提升同其他boosting方法一样,通过集成(ensemble)多个弱学习器,通常是决策树,来构建最终的预测模型。
Boosting、bagging和stacking是集成学习的三种主要方法。不同于bagging方法,boosting方法通过分步迭代(stage-wise)的方式来构建模型,在迭代的每一步构建的弱学习器都是为了弥补已有模型的不足。Boosting族算法的著名代表是AdaBoost,AdaBoost算法通过给已有模型预测错误的样本更高的权重,使得先前的学习器做错的训练样本在后续受到更多的关注的方式来弥补已有模型的不足。与AdaBoost算法不同,梯度提升方法在迭代的每一步构建一个能够沿着梯度最陡的方向降低损失(steepest-descent)的学习器来弥补已有模型的不足。经典的AdaBoost算法只能处理采用指数损失函数的二分类学习任务,而梯度提升方法通过设置不同的可微损失函数可以处理各类学习任务(多分类、回归、Ranking等),应用范围大大扩展。另一方面,AdaBoost算法对异常点(outlier)比较敏感,而梯度提升算法通过引入bagging思想、加入正则项等方法能够有效地抵御训练数据中的噪音,具有更好的健壮性。这也是为什么梯度提升算法(尤其是采用 决策树 作为弱学习器的GBDT算法)如此流行的原因。之前有种观点认为GBDT是性能最好的 机器学习 算法,这当然有点过于激进又固步自封的味道,但通常各类机器学习算法比赛的赢家们都非常青睐GBDT算法,由此可见该算法的实力不可小觑。
基于梯度提升算法的学习器叫做GBM(Gradient Boosting Machine)。理论上,GBM可以选择各种不同的学习算法作为基学习器。现实中,用得最多的基学习器是决策树。为什么梯度提升方法倾向于选择决策树(通常是CART树)作为基学习器呢?这与决策树算法自身的优点有很大的关系。决策树可以认为是if-then规则的集合,易于理解,可解释性强,预测速度快。同时,决策树算法相比于其他的算法需要更少的特征工程,比如可以不用做特征标准化,可以很好的处理字段缺失的数据,也可以不用关心特征间是否相互依赖等。决策树能够自动组合多个特征,它可以毫无压力地处理特征间的交互关系并且是非参数化的,因此你不必担心异常值或者数据是否线性可分(举个例子,决策树能轻松处理好类别A在某个特征维度x的末端,类别B在中间,然后类别A又出现在特征维度x前端的情况)。不过,单独使用决策树算法时,有容易过拟合的缺点。所幸的是,通过各种方法,抑制决策树的复杂性,降低单颗决策树的拟合能力,再通过梯度提升的方法集成多个决策树,最终能够很好的解决过拟合的问题。由此可见,梯度提升方法和决策树学习算法可以互相取长补短,是一对完美的搭档。至于抑制单颗决策树的复杂度的方法有很多,比如限制树的最大深度、限制叶子节点的最少样本数量、限制节点分裂时的最少样本数量、吸收bagging的思想对训练样本采样(subsample),在学习单颗决策树时只使用一部分训练样本、借鉴随机森林的思路在学习单颗决策树时只采样一部分特征、在目标函数中添加正则项惩罚复杂的树结构等。现在主流的GBDT算法实现中这些方法基本上都有实现,因此GBDT算法的超参数还是比较多的,应用过程中需要精心调参,并用交叉验证的方法选择最佳参数。
本文对GBDT算法原理进行介绍,从机器学习的关键元素出发,一步一步推导出GBDT算法背后的理论基础,读者可以从这个过程中了解到GBDT算法的来龙去脉。对于该算法的工程实现,本文也有较好的指导意义,实际上对 机器学习关键概念元素的区分对应了软件工程中的“开放封闭原则”的思想,基于此思想的实现将会具有很好的模块独立性和扩展性。
机器学习的关键元素
先复习下监督学习的关键概念:模型(model)、参数(parameters)、目标函数(objective function)。
模型就是所要学习的条件概率分布或者决策函数,它决定了在给定特征向量 x x x时如何预测出目标 y y y。定义 x i ∈ R d x_i \in R^d xi∈Rd 为训练集中的第 i i i个训练样本,则线性模型(linear model)可以表示为: y ^ i = ∑ j w j x i j \hat{y}_i = \sum_j{w_j x_{ij}} y^i=∑jwjxij。模型预测的分数 y ^ i \hat{y}_i y^i在不同的任务中有不同的解释。例如在逻辑回归任务中, 1 / ( 1 + e x p ( − y ^ i ) ) 1/(1+exp(-\hat{y}_i)) 1/(1+exp(−y^i))表示模型预测为正例的概率;而在排序学习任务中, y ^ i \hat{y}_i y^i表示排序分。
参数就是我们要从数据中学习得到的内容。模型通常是由一个参数向量决定的函数。例如,线性模型的参数可以表示为: Θ = w j ∣ j = 1 , ⋯ , d \Theta={w_j|j=1,\cdots,d} Θ=wj∣j=1,⋯,d。
目标函数通常定义为如下形式: O b j ( Θ ) = L ( Θ ) + Ω ( Θ ) Obj(\Theta)=L(\Theta)+\Omega(\Theta) Obj(Θ)=L(Θ)+Ω(Θ) 其中, L ( Θ ) L(\Theta) L(Θ)是损失函数,用来衡量模型拟合训练数据的好坏程度; Ω ( Θ ) \Omega(\Theta) Ω(Θ)称之为正则项,用来衡量学习到的模型的复杂度。训练集上的损失(Loss)定义为: L = ∑ i = 1 n l ( y i , y ^ i ) L=\sum_{i=1}^n l(y_i, \hat{y}_i) L=∑i=1nl(yi,y^i)。
常用的损失函数有:
- 平方损失(square loss): l ( y i , y ^ i ) = ( y i − y ^ i ) 2 l(y_i, \hat{y}_i)=(y_i - \hat{y}_i)^2 l(yi,y^i)=(yi−y^i)2;
- Logistic损失: l ( y i , y ^ i ) = y i l n ( 1 + e y i ) + ( 1 − y i ) l n ( 1 + e y ^ i ) l(y_i, \hat{y}_i)=y_i ln(1+e^{y_i}) + (1-y_i)ln(1+e^{\hat{y}_i}) l(yi,y^i)=yiln(1+eyi)+(1−yi)ln(1+ey^i)。
常用的正则项有L1范数 Ω ( w ) = λ ∥ w ∥ 1 \Omega(w)=\lambda \Vert w \Vert_1 Ω(w)=λ∥w∥1和L2范数 Ω ( w ) = λ ∥ w ∥ 2 \Omega(w)=\lambda \Vert w \Vert_2 Ω(w)=λ∥w∥2。Ridge regression就是指使用平方损失和L2范数正则项的线性回归模型;Lasso regression就是指使用平方损失和L1范数正则项的线性回归模型;逻辑回归(Logistic regression)指使用logistic损失和L2范数或L1范数正则项的线性模型。
目标函数之所以定义为损失函数和正则项两部分,是为了尽可能平衡模型的偏差和方差(Bias Variance Trade-off)。最小化目标函数意味着同时最小化损失函数和正则项,损失函数最小化表明模型能够较好的拟合训练数据,一般也预示着模型能够较好地拟合真实数据(groud true);另一方面,对正则项的优化鼓励算法学习到较简单的模型,简单模型一般在测试样本上的预测结果比较稳定、方差较小(奥坎姆剃刀原则)。也就是说,优化损失函数尽量使模型走出欠拟合的状态,优化正则项尽量使模型避免过拟合。
从概念上区分模型、参数和目标函数给学习算法的工程实现带来了益处,使得机器学习的各个组成部分之间耦合尽量松散。
加法模型(additive model)
GBDT算法可以看成是由K棵树组成的加法模型。一般我们使用CART(classification and regression tree)树作为集成学习的基础模块,下图是一颗用来预测某用户是否喜欢电脑游戏X的例子,该例子中人群被划分到不同的叶子节点,每个叶子节点被赋予一个分数来表示其与目标的关联度。
通常,一棵树并不足以强大到能够解决问题,我们使用基于多棵树的集成模型来建模。在GBDT算法中,该集成模型即加法模型,它的形式化如下:
y ^ i = ∑ k = 1 K f k ( x i ) , f k ∈ F (0) \hat{y}_i=\sum_{k=1}^K f_k(x_i), f_k \in F \tag 0 y^i=k=1∑Kfk(xi),fk∈F(0)
其中 F F F为所有树组成的函数空间,以回归任务为例,回归树可以看作为一个把特征向量映射为某个score的函数。该模型的参数为: Θ = f 1 , f 2 , ⋯ , f K \Theta={f_1,f_2, \cdots, f_K } Θ=f1,f2,⋯,fK。与一般的机器学习算法不同的是,加法模型不是学习d维空间中的权重,而是直接学习函数(决策树)集合。
如上图所示,每个样本的最终得分是由每颗子树的得分相加得到的。
上述加法模型的目标函数定义为:
O b j = ∑ i = 1 n l ( y i , y ^ i ) + ∑ k = 1 K Ω ( f k ) , Obj=\sum_{i=1}^n l(y_i, \hat{y}i) + \sum_{k=1}^K \Omega(f_k), Obj=i=1∑nl(yi,y^i)+k=1∑KΩ(fk),
其中 Ω ( ⋅ ) \Omega(\cdot) Ω(⋅)是正则项,表示决策树的复杂度,那么该如何定义树的复杂度呢?比如,可以考虑树的节点数量、树的深度或者叶子节点所对应的分数的L2范数等等。
如何来学习加法模型呢?
解这一优化问题,可以用前向分布算法(forward stagewise algorithm)。因为学习的是加法模型,如果能够从前往后,每一步只学习一个基函数及其系数(在GBDT算法中即为树的结构和叶子节点的分数),逐步逼近优化目标函数,那么就可以简化复杂度。这一学习过程称之为Boosting。具体地,我们从一个常量预测开始,每次学习一个新的函数,过程如下:
y ^ i 0 = 0 y ^ i 1 = f 1 ( x i ) = y ^ i 0 + f 1 ( x i ) y ^ i 2 = f 1 ( x i ) + f 2 ( x i ) = y ^ i 1 + f 2 ( x i ) ⋯ y ^ i t = ∑ k = 1 t f k ( x i ) = y ^ i t − 1 + f t ( x i ) \begin{split} \hat{y}_i^0 &= 0 \\ \hat{y}_i^1 &= f_1(x_i) = \hat{y}_i^0 + f_1(x_i) \\ \hat{y}_i^2 &= f_1(x_i) + f_2(x_i) = \hat{y}_i^1 + f_2(x_i) \\ & \cdots \\ \hat{y}_i^t &= \sum_{k=1}^t f_k(x_i) = \hat{y}_i^{t-1} + f_t(x_i) \ \end{split} y^i0y^i1y^i2y^it=0=f1(xi)=y^i0+f1(xi)=f1(xi)+f2(xi)=y^i1+f2(xi)⋯=k=1∑tfk(xi)=y^it−1+ft(xi)
那么,在每一步如何决定哪一个函数 f f f被加入呢?指导原则还是最小化目标函数。 在第 t t t步,模型对 x i x_i xi的预测为: y ^ i t = y ^ i t − 1 + f t ( x i ) \hat{y}_i^t= \hat{y}_i^{t-1} + f_t(x_i) y^it=y^it−1+ft(xi),其中 f t ( x i ) f_t(x_i) ft(xi)为这一轮我们要学习的函数(决策树)。这个时候目标函数可以写为:
O b j ( t ) = ∑ i = 1 n l ( y i , y ^ i t ) + ∑ i = i t Ω ( f i ) = ∑ i = 1 n l ( y i , y ^ i t − 1 + f t ( x i ) ) + Ω ( f t ) + c o n s t a n t (1) \begin{split} Obj^{(t)} &= \sum_{i=1}^nl(y_i, \hat{y}_i^t) + \sum_{i=i}^t \Omega(f_i) \\ &= \sum_{i=1}^n l\left(y_i, \hat{y}_i^{t-1} + f_t(x_i) \right) + \Omega(f_t) + constant \end{split}\tag{1} Obj(t)=i=1∑nl(yi,y^it)+i=i∑tΩ(fi)=i=1∑nl(yi,y^it−1+ft(xi))+Ω(ft)+constant(1)
举例说明,假设损失函数为平均平方损失(mean square loss),则目标函数为:
O b j ( t ) = ∑ i = 1 n ( y i − ( y ^ i t − 1 + f t ( x i ) ) ) 2 + Ω ( f t ) + c o n s t a n t = ∑ i = 1 n [ 2 ( y ^ i t − 1 − y i ) f t ( x i ) + f t ( x i ) 2 ] + Ω ( f t ) + c o n s t a n t (2) \begin{split} Obj^{(t)} &= \sum_{i=1}^n \left(y_i - (\hat{y}_i^{t-1} + f_t(x_i)) \right)^2 + \Omega(f_t) + constant \\ &= \sum_{i=1}^n \left[2(\hat{y}_i^{t-1} - y_i)f_t(x_i) + f_t(x_i)^2 \right] + \Omega(f_t) + constant \end{split}\tag{2} Obj(t)=i=1∑n(yi−(y^it−1+ft(xi)))2+Ω(ft)+constant=i=1∑n[2(y^it−1−yi)ft(xi)+ft(xi)2]+Ω(ft)+constant(2)
其中, ( y ^ i t − 1 − y i ) (\hat{y}_i^{t-1} - y_i) (y^it−1−yi)称之为残差(residual)。因此,在使用平方损失函数时,GBDT算法的每一步在生成决策树时只需要拟合前面的模型的残差。
在使用其他损失函数时,如logistic loss,就很难得到如MSE损失那样简洁的解析表达式。因此,Xgboost使用泰勒公式的二阶展开式来近似目标函数,详细过程如下:
泰勒公式:设 n n n是一个正整数,如果定义在一个包含 a a a 的区间上的函数 f f f 在 a a a 点处 n + 1 n+1 n+1 次可导,那么对于这个区间上的任意 x x x 都有: f ( x ) = ∑ n = 0 N f ( n ) ( a ) n ! ( x − a ) n + R n ( x ) \displaystyle f(x)=\sum_{n=0}^{N}\frac{f^{(n)}(a)}{n!}(x-a)^ n+R_n(x) f(x)=n=0∑Nn!f(n)(a)(x−a)n+Rn(x),其中的多项式称为函数在 a a a 处的泰勒展开式, R n ( x ) R_n(x) Rn(x)是泰勒公式的余项且是 ( x − a ) n (x-a)^ n (x−a)n的高阶无穷小。
其中,零阶导数理解为本身,常数0阶导数仍为本身,函数的0阶导数为函数本身;并且规定0!=1。
根据泰勒公式把函数
f
(
x
+
Δ
x
)
f(x+\Delta x)
f(x+Δx)在点
x
x
x处二阶展开,可得到如下等式:
f
(
x
+
Δ
x
)
≈
f
(
x
)
+
f
′
(
x
)
Δ
x
+
1
2
f
′
′
(
x
)
Δ
x
2
(3)
f(x+\Delta x) \approx f(x) + f'(x)\Delta x + \frac12 f''(x)\Delta x^2 \tag 3
f(x+Δx)≈f(x)+f′(x)Δx+21f′′(x)Δx2(3)
(即用
x
+
Δ
x
x+\Delta x
x+Δx代替泰勒公式中的
x
x
x,并且用
x
x
x代替泰勒公式中的
a
a
a)
由等式(1)可知,目标函数是关于变量 y ^ i t − 1 + f t ( x i ) \hat{y}_i^{t-1} + f_t(x_i) y^it−1+ft(xi) 的函数,若把变量 y ^ i t − 1 \hat{y}_i^{t-1} y^it−1看成是等式(3)中的 x x x,把变量 f t ( x i ) f_t(x_i) ft(xi)看成是等式(3)中的 Δ x \Delta x Δx,则等式(1)可转化为:
O b j ( t ) = ∑ i = 1 n [ l ( y i , y ^ i t − 1 ) + g i f t ( x i ) + 1 2 h i f t 2 ( x i ) ] + Ω ( f t ) + c o n s t a n t (4) Obj^{(t)} = \sum_{i=1}^n \left[ l(y_i, \hat{y}_i^{t-1}) + g_if_t(x_i) + \frac12h_if_t^2(x_i) \right] + \Omega(f_t) + constant \tag 4 Obj(t)=i=1∑n[l(yi,y^it−1)+gift(xi)+21hift2(xi)]+Ω(ft)+constant(4)
其中, g i g_i gi定义为损失函数的一阶导数,即 g i = ∂ y ^ i t − 1 l ( y i , y ^ i t − 1 ) g_i=\partial_{\hat{y}_i^{t-1}}l(y_i,\hat{y}_i^{t-1}) gi=∂y^it−1l(yi,y^it−1); h i h_i hi定义为损失函数的二阶导数,即 h i = ∂ y ^ i t − 1 2 l ( y i , y ^ i t − 1 ) h_i=\partial_{\hat{y}_i^{t-1}}^2l(y_i,\hat{y}_i^{t-1}) hi=∂y^it−12l(yi,y^it−1)。 这里需要注意的是,损失函数是对前一步的预测结果 y ^ i t − 1 \hat{y}_i^{t-1} y^it−1求导。
假设损失函数为平方损失函数,则 g i = ∂ y ^ t − 1 ( y ^ t − 1 − y i ) 2 = 2 ( y ^ t − 1 − y i ) g_i=\partial_{\hat{y}^{t-1}}(\hat{y}^{t-1} - y_i)^2 = 2(\hat{y}^{t-1} - y_i) gi=∂y^t−1(y^t−1−yi)2=2(y^t−1−yi), h i = ∂ y ^ t − 1 2 ( y ^ t − 1 − y i ) 2 = 2 h_i=\partial_{\hat{y}^{t-1}}^2(\hat{y}^{t-1} - y_i)^2 = 2 hi=∂y^t−12(y^t−1−yi)2=2,把 g i g_i gi和 h i h_i hi代入等式(4)即得等式(2)。
由于函数中的常量在函数最小化的过程中不起作用,因此我们可以从等式(4)中移除掉常量项,得:
O
b
j
(
t
)
≈
∑
i
=
1
n
[
g
i
f
t
(
x
i
)
+
1
2
h
i
f
t
2
(
x
i
)
]
+
Ω
(
f
t
)
(5)
Obj^{(t)} \approx \sum_{i=1}^n \left[ g_if_t(x_i) + \frac12h_if_t^2(x_i) \right] + \Omega(f_t) \tag 5
Obj(t)≈i=1∑n[gift(xi)+21hift2(xi)]+Ω(ft)(5)
由于要学习的函数仅仅依赖于目标函数,从等式(5)可以看出只需为学习任务定义好损失函数,并为每个训练样本计算出损失函数的一阶导数和二阶导数,通过在训练样本集上最小化等式(5)即可求得每步要学习的函数 f ( x ) f(x) f(x),从而根据加法模型等式(0)可得最终要学习的模型。
GBDT算法
一颗生成好的决策树,假设其叶子节点个数为 T T T,该决策树是由所有叶子节点对应的值组成的向量 w ∈ R T w \in R^T w∈RT,以及一个把特征向量映射到叶子节点索引(Index)的函数 q : R d → 1 , 2 , ⋯ , T q:R^d \to {1,2,\cdots,T} q:Rd→1,2,⋯,T组成的。因此,策树可以定义为 f t ( x ) = w q ( x ) f_t(x)=w_{q(x)} ft(x)=wq(x)。
决策树的复杂度可以由正则项 Ω ( f t ) = γ T + 1 2 λ ∑ j = 1 T w j 2 \Omega(f_t)=\gamma T + \frac12 \lambda \sum_{j=1}^T w_j^2 Ω(ft)=γT+21λ∑j=1Twj2 来定义,即 决策树模型的复杂度由生成的树的叶子节点数量和叶子节点对应的值向量的L2范数决定。
定义集合
I
j
=
{
i
∣
q
(
x
i
)
=
j
}
I_j=\{ i \vert q(x_i)=j \}
Ij={i∣q(xi)=j} 为所有被划分到叶子节点
j
j
j 的训练样本的集合。等式(5)可以根据树的叶子节点重新组织为T个独立的二次函数的和:
O
b
j
(
t
)
≈
∑
i
=
1
n
[
g
i
f
t
(
x
i
)
+
1
2
h
i
f
t
2
(
x
i
)
]
+
Ω
(
f
t
)
=
∑
i
=
1
n
[
g
i
w
q
(
x
i
)
+
1
2
h
i
w
q
(
x
i
)
2
]
+
γ
T
+
1
2
λ
∑
j
=
1
T
w
j
2
=
∑
j
=
1
T
[
(
∑
i
∈
I
j
g
i
)
w
j
+
1
2
(
∑
i
∈
I
j
h
i
+
λ
)
w
j
2
]
+
γ
T
(6)
\begin{split} Obj^{(t)} &\approx \sum_{i=1}^n \left[ g_if_t(x_i) + \frac12h_if_t^2(x_i) \right] + \Omega(f_t) \\ &= \sum_{i=1}^n \left[ g_iw_{q(x_i)} + \frac12h_iw_{q(x_i)}^2 \right] + \gamma T + \frac12 \lambda \sum_{j=1}^T w_j^2 \\ &= \sum_{j=1}^T \left[(\sum_{i \in I_j}g_i)w_j + \frac12(\sum_{i \in I_j}h_i + \lambda)w_j^2 \right] + \gamma T \end{split}\tag 6
Obj(t)≈i=1∑n[gift(xi)+21hift2(xi)]+Ω(ft)=i=1∑n[giwq(xi)+21hiwq(xi)2]+γT+21λj=1∑Twj2=j=1∑T⎣
⎡(i∈Ij∑gi)wj+21(i∈Ij∑hi+λ)wj2⎦
⎤+γT(6)
定义
G
j
=
∑
i
∈
I
j
g
i
G_j=\sum_{i \in I_j}g_i
Gj=∑i∈Ijgi,
H
j
=
∑
i
∈
I
j
h
i
H_j=\sum_{i \in I_j}h_i
Hj=∑i∈Ijhi,则等式(6)可写为:
O
b
j
(
t
)
=
∑
j
=
1
T
[
G
i
w
j
+
1
2
(
H
i
+
λ
)
w
j
2
]
+
γ
T
Obj^{(t)} = \sum_{j=1}^T \left[G_iw_j + \frac12(H_i + \lambda)w_j^2 \right] + \gamma T
Obj(t)=j=1∑T[Giwj+21(Hi+λ)wj2]+γT
假设树的结构是固定的,即由函数 q ( x ) q(x) q(x)确定,令函数 O b j ( t ) Obj^{(t)} Obj(t)对参数 w j w_j wj 的一阶导数等于0,即可求得叶子节点 j j j 对应的值为: w j ∗ = − G j H j + λ (7) w_j^*=-\frac{G_j}{H_j+\lambda} \tag 7 wj∗=−Hj+λGj(7)
此时,目标函数的值为
O
b
j
∗
=
−
1
2
∑
j
=
1
T
G
j
2
H
j
+
λ
+
γ
T
(8)
Obj^* = -\frac12 \sum_{j=1}^T \frac{G_j^2}{H_j+\lambda} + \gamma T \tag 8
Obj∗=−21j=1∑THj+λGj2+γT(8)
该函数度量了一颗树结构的好坏程度,其类似于决策树算法中的不纯度度量(impurity measure),只是额外考虑了正则项。
综上,为了便于理解,单颗决策树的学习过程可以大致描述为:
- 枚举所有可能的树结构 q q q
- 用等式(8)为每个 q q q 计算其对应的分数 O b j Obj Obj,分数越小说明对应的树结构越好
- 根据上一步的结果,找到最佳的树结构,用等式(7)为树的每个叶子节点计算预测值
然而,可能的树结构数量是无穷的,所以实际上我们不可能枚举所有可能的树结构。通常情况下,我们采用贪心策略来生成决策树的每个节点。
- 从深度为0的树开始,对每个叶节点枚举所有的可用特征
- 针对每个特征,把属于该节点的训练样本根据该特征值升序排列,通过线性扫描的方式来决定该特征的最佳分裂点,并记录该特征的最大收益(采用最佳分裂点时的收益);这里假设类别型特征已经做了one-hot编码
- 选择收益最大的特征作为分裂特征,用该特征的最佳分裂点作为分裂位置,把该节点生长出左右两个新的叶节点,并为每个新节点关联对应的样本集
- 回到第1步,递归执行到满足特定条件为止
在上述算法的第二步,样本排序的时间复杂度为 O ( n log n ) O(n \log n) O(nlogn),假设共有 K 个特征,那么生成一颗深度为 d 的树的时间复杂度为 O ( d K n log n ) O(dKn\log n) O(dKnlogn)。具体实现可以进一步优化计算复杂度,比如可以缓存每个特征的排序结果等。
如何计算每次分裂的收益呢?假设当前节点记为 C C C,分裂之后左孩子节点记为 L L L,右孩子节点记为 R R R,则该分裂获得的收益定义为当前节点的目标函数值减去左右两个孩子节点的目标函数值之和: G a i n = O b j C − O b j L − O b j R Gain=Obj_C-Obj_L-Obj_R Gain=ObjC−ObjL−ObjR,具体地,根据等式(8)可得: G a i n = 1 2 [ G L 2 H L + λ + G R 2 H R + λ − ( G L + G R ) 2 H L + H R + λ ] − γ Gain=\frac12 \left[ \frac{G_L^2}{H_L+\lambda} + \frac{G_R^2}{H_R+\lambda} - \frac{(G_L+G_R)^2}{H_L+H_R+\lambda}\right] - \gamma Gain=21[HL+λGL2+HR+λGR2−HL+HR+λ(GL+GR)2]−γ 其中, − γ -\gamma −γ 项表示因为增加了树的复杂性(该分裂增加了一个叶子节点)带来的惩罚。当节点的最佳分裂收益小于0时(也就是不考虑增加树的复杂性惩罚时的收益小于 γ \gamma γ时),意味着此时最好不要分裂该节点。这也就是决策树剪枝算法的原理。搜索某特征最佳分裂点的过程可参考下面的例子。
A left to right scan is sufficient to calculate the structure score of all possible split solutions, and we can find the best split efficiently.
关于如何计算特征的重要度,请参考《Tree ensemble算法的特征重要度计算》。
最后,总结一下GBDT的学习算法:
- 算法每次迭代生成一颗新的 决策树
- 在每次迭代开始之前,计算损失函数在每个训练样本点的一阶导数 g i g_i gi和二阶导数 h i h_i hi
- 通过贪心策略生成新的 决策树,通过等式(7)计算每个叶节点对应的预测值
- 把新生成的 决策树 f t ( x ) f_t(x) ft(x)添加到模型中: y ^ i t = y ^ i t − 1 + f t ( x i ) \hat{y}_i^t = \hat{y}_i^{t-1} + f_t(x_i) y^it=y^it−1+ft(xi)
通常在第四步,我们把模型更新公式替换为: y ^ i t = y ^ i t − 1 + ϵ f t ( x i ) \hat{y}_i^t = \hat{y}_i^{t-1} + \epsilon f_t(x_i) y^it=y^it−1+ϵft(xi),其中 ϵ \epsilon ϵ称之为步长或者学习率。增加 ϵ \epsilon ϵ因子的目的是为了避免模型过拟合。
参考资料
- [1] Gradient Boosting 的更多内容
- [2] XGBoost 是一个优秀的GBDT开源软件库,有多种语言接口
- [3] Pyramid 是一个基于Java语言的机器学习库,里面也有GBDT算法的介绍和实现
- [4] Friedman的论文《Greedy function approximation: a gradient boosting machine》是比较早的GBDT算法文献,但是比较晦涩难懂,不适合初学者,高阶选手可以进一步学习
- [5] "A Gentle Introduction to Gradient Boosting"是关于Gradient Boosting的一个通俗易懂的解释,比较适合初学者或者是已经对GBDT算法原理印象不深的从业者
- [6] 关于GBDT算法调参的经验和技巧可以参考这两篇博文:《GBM调参指南》、 《XGBoost调参指南》,作者使用的算法实现工具来自于著名的Python机器学习工具scikit-learn
- [7] GBDT算法在搜索引擎排序中的应用可以查看这篇论文《Web-Search Ranking with Initialized Gradient Boosted Regression Trees 》,这篇论文提出了一个非常有意思的方法,用一个已经训练好的随机森林模型作为GBDT算法的初始化,再用GBDT算法优化最终的模型,取得了很好的效果