(一)提升树模型:GBDT原理与实践

在对机器学习各种分类器的学习上,因为学习和工作的原因,自己接触得最多的就是提升树(boosting tree)模型了。

之前自己基本都是在使用GBDT,xgboost和lgbm,原理也稍微懂点,当然很多很多细节问题并不是特别明白。因此,我想在现有资料的基础上,加入自己的一些理解,整理出一个关于提升树模型的资料,以便自己和广大对提升树模型感兴趣的朋友随时查阅。很多问题也希望读者可以拍砖。

为了写作的方便,本次资料基本是在现有网上资料的基础上进行整理的,毕竟大家写得非常得好。在此,向各位“前辈”表示感谢。

好了,废话不多说了。我想从3个部分开展提升树的介绍,分别是:

  • GBDT
  • Xgboost
  • Lightgbm

我不仅会介绍原理以及公式的推导,最重要的是,我会举例来说明算法的过程,使得理解起来不那么晦涩。

GBDT作为提升树思想的开山鼻祖,当然应该首先讲解。Xgboost和Lightgbm是现有kaggle比赛中最常用也是最强有力的工具,我也会详细介绍。当然,在介绍这3个提升树的时候,我中间也会插入一些细节问题,而这些细节问题才是真正考验你对提升树模型的理解程度。

本篇博客首先介绍GBDT。Xgboost的内容详见如下文章; Lightgbm的内容详见如下文章

一、引言

GBDT(Gradient Boosting Decision Tree)是一种迭代的决策树算法,又叫 MART(Multiple Additive Regression Tree),它通过构造一组弱的学习器(树),并把多颗决策树的结果累加起来作为最终的预测输出。该算法将决策树与集成思想进行了有效的结合。

GBDT的思想使其具有天然优势可以发现多种有区分性的特征以及特征组合。自算法的诞生之初,它就和SVM一起被认为是泛化能力(generalization)较强的算法。近些年来更因为被用于构建搜索排序的机器学习模型而引起广泛的关注。它最早见于yahoo,后被广泛应用在搜索排序、点击率预估上。业界中,Facebook使用其来自动发现有效的特征、特征组合,来作为LR模型中的特征,以提高 CTR预估(Click-Through Rate Prediction)的准确性;GBDT在淘宝的搜索及预测业务上也发挥了重要作用。

除此之外,GBDT还是目前竞赛中最为常用的一种机器学习算法,因为它不仅可以适用于多种场景,而且相比较于其他算法还有着出众的准确率,如此优异的性能也让GBDT收获了机器学习领域的“屠龙刀”这一赞誉。

本文首先介绍GBDT中的DT,即回归树,这是它的基础算法;然后叙述提升树,它是以决策树为基函数的提升方法;接着介绍GBDT中的GB,即梯度提升;最后导出GBDT算法的整个流程。

二、Regression Desicion Tree:回归树

2.1 回归树简介

决策树模型分为分类树和回归树,分类树常用来分类问题,回归树常用来预测问题。分类树常用于分类标签值,比如用户性别、网页是否是垃圾页面、用户是不是作弊;而回归树常用于预测真实数值,比如用户的年龄、用户点击的概率、网页相关程度等等。

回归树总体流程类似于分类树,区别在于,回归树的每一个节点都会得到一个预测值,以年龄为例,该预测值等于属于这个节点的所有人年龄的平均值。分枝时穷举每一个feature的每个阈值寻找最优切分变量和最优切分点,但衡量的准则不再是分类树中的基尼系数,而是平方误差最小化。也就是被预测错误的人数越多,平方误差就越大,通过最小化平方误差找到最可靠的分枝依据。分枝直到每个叶子节点上人的年龄都唯一或者达到预设的终止条件(如叶子个数上限),若最终叶子节点上人的年龄不唯一,则以该节点上所有人的平均年龄做为该叶子节点的预测年龄。

由于GBDT的核心在于累加所有树的结果作为最终结果,而分类树得到的离散分类结果对于预测分类并不是这么的容易叠加(稍等后面会看到,其实并不是简单的叠加,而是每一步每一棵树拟合的残差和选择分裂点评价方式都是经过公式推导得到的),而对基于回归树所得到的数值进行加减是有意义的(例如10岁+5岁-3岁=12岁),这是区别于分类树的一个显著特征(毕竟男+女=是男是女?,这样的运算是毫无道理的),GBDT在运行时就使用到了回归树的这个性质,它将累加所有树的结果作为最终结果。所以GBDT中的树都是回归树,而不是分类树,它用来做回归预测,当然回归树经过调整之后也能用来做分类。(如何做分类,稍后会介绍,这是一个需要注意的地方)

2.2 回归树的生成

首先看一个简单的回归树生成实例:
在这里插入图片描述
接下来具体说说回归树是如何进行特征选择生成二叉回归树的。
假设 X X X Y Y Y分别为输入和输出变量,并且 Y Y Y是连续变量,给定训练数据集
D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋅ ⋅ ⋅ , ( x N , y N ) } D=\{(x_1,y_1),(x_2,y_2),···,(x_N,y_N)\} D={(x1,y1),(x2,y2),,(xN,yN)}

我们利用最小二乘回归树生成算法来生成回归树 f ( x ) f(x) f(x),即在训练数据集所在的输入空间中,递归地将每个区域分为两个子区域并决定每个子区域上的输出值,构建二叉决策树,步骤如下:
1)选择最优切分变量 j j j与切分点 s s s,求解
min ⁡ j , s [ min ⁡ c 1 ∑ x i ∈ R 1 ( j , s ) ( y i − c 1 ) 2 + min ⁡ c 2 ∑ x i ∈ R 2 ( j , s ) ( y i − c 2 ) 2 ] \min_{j,s}\left[\min_{c_1}\sum_{x_i\in R_1\left(j,s\right)}{\left(y_i-c_1\right)^2}+\min_{c_2}\sum_{x_i\in R_2\left(j,s\right)}{\left(y_i-c_2\right)^2}\right] j,sminc1minxiR1(j,s)(yic1)2+c2minxiR2(j,s)(yic2)2

遍历变量 j j j,对固定的切分变量 j j j扫描切分点 s s s,选择使上式达到最小值得对 j , s j,s j,s
2)用选定的对 ( j , s ) (j,s) (j,s)划分区域并决定相应的输出值:
R 1 ( j , s ) = { x ∣ x ( j ) ≤ s }   ,   R 2 ( j , s ) = { x ∣ x ( j ) > s } R_1\left(j,s\right)=\left\{x|x^{\left(j\right)}\le s\right\}\ ,\ R_2\left(j,s\right)=\left\{x|x^{\left(j\right)}>s\right\} R1(j,s)={xx(j)s} , R2(j,s)={xx(j)>s}

3)继续对两个子区域调用步骤(1),(2),直至满足停止条件。

4)将输入空间划分为 M M M个区域 R 1 , R 2 , ⋅ ⋅ ⋅ , R M R_1,R_2,···,R_M R1,R2,,RM,在每个单元 R m Rm Rm上有一个固定的输出值 c m c_m cm,生成决策树
f ( x ) = ∑ m = 1 M c ^ m I ( x ∈ R m ) f\left(x\right)=\sum_{m=1}^M{\hat{c}_m\textrm{I}\left(\textrm{x}\in\textrm{R}_{\textrm{m}}\right)} f(x)=m=1Mc^mI(xRm)

三、Boosting Decision Tree:提升树

3.1 提升树模型

提升方法采用加法模型(即基函数的线性组合)与前向分布算法。以决策树为基函数的提升方法称为提升树(Boosting tree)。对分类问题构建的决策树是二叉分类树,对回归问题构建决策树是二叉回归树。提升树是迭代多棵回归树来共同决策。当采用平方误差损失函数时,每一棵回归树学习的是之前所有树的结论和残差,拟合得到一个当前的残差回归树,残差的意义如公式:残差 = 真实值 - 预测值 。提升树即是整个迭代过程生成的回归树的累加。提升树模型可以表示为决策树的加法模型
f M ( x ) = ∑ m = 1 M T ( x ; Θ m ) f_M\left(x\right)=\sum_{m=1}^M{T\left(x;\varTheta_m\right)} fM(x)=m=1MT(x;Θm)

其中 T ( x ; Θ m ) T\left(x;\varTheta_m\right) T(x;Θm)表示决策树; Θ m \varTheta_m Θm为决策树的参数; M M M为树的个数。

3.2 提升树算法

对回归问题的提升树算法来说,给定当前模型 f m − 1 ( x ) f_{m-1}(x) fm1(x)只需要简单地拟合当前模型的残差。现将回归问题的提升树算法叙述如下:
1)初始化 f 0 ( x ) = 0 f_0{(x)}=0 f0(x)=0
2)对 m = 1 , 2 , ⋅ ⋅ ⋅ , M m=1,2,···,M m=1,2,,M

  • a)计算残差 r m i = y i − f m − 1 ( x i )   ,   i = 1 , 2 , ⋅ ⋅ ⋅ , N r_{mi}=y_i-f_{m-1}\left(x_i\right)\ ,\ i=1,2,···,N rmi=yifm1(xi) , i=1,2,,N

  • b)拟合残差 r m i r_{mi} rmi学习一个回归树,得到 T ( x ; Θ m ) T\left(x;\varTheta_m\right) T(x;Θm)

  • c)更新 f m ( x ) = f m − 1 ( x ) + T ( x ; Θ m ) f_m{(x)}=f_{m-1}{(x)}+T(x;\varTheta_m ) fm(x)=fm1(x)+T(x;Θm)

3)得到回归问题提升树 f M ( x ) = ∑ m = 1 M T ( x ; Θ m ) f_M\left(x\right)=\sum_{m=1}^M{T\left(x;\varTheta_m\right)} fM(x)=m=1MT(x;Θm)

接下来通过训练一个用于预测年龄的模型来展现算法的运行流程:

1)首先,训练集有4个人 A , B , C , D A,B,C,D A,B,C,D,它们的年龄分别是 14 , 16 , 24 , 26 14,16,24,26 14,16,24,26,其中 A , B A,B A,B分别是高一和高三学生; C , D C,D C,D分别是应届毕业生和工作两年的员工,可用于分枝的特征包括上网时长、购物金额、上网时段和对百度知道的使用方式。如果是一棵传统的回归决策树来训练,会得到下图所示结果:

在这里插入图片描述
2)但是如果用GBDT来做这件事,由于数据太少,我们限定叶子节点最多有两个,即每棵树都只有一个分枝,并且限定只限定两棵树。我们会得到如下所示结果:

在这里插入图片描述
第一棵树的分枝与之前一样,也是使用购物金额进行区分,两拨人各自用年龄均值作为预测值,得到残差值-1、1、-1、1,然后拿这些残差值替换初始值去训练生成第二棵回归树,如果新的预测值和残差相等,则只需把第二棵树的结论累加到第一棵树上就能得到真实年龄了。

第二棵树只有两个值1和-1,直接可分成两个节点。此时所有人的残差都是0,即每个人都得到了真实的预测值。

3)将两棵回归树预测结果进行汇总,解释如下:

  • A:14岁高一学生;购物较少;经常问学长问题;预测年龄A = 15 – 1 = 14
  • B:16岁高三学生;购物较少;经常被学弟问问题;预测年龄B = 15 + 1 = 16
  • C:24岁应届毕业生;购物较多,经常问师兄问题;预测年龄C = 25 – 1 = 24
  • D:26岁工作两年员工;购物较多,经常被师弟问问题;预测年龄D = 25 + 1 = 26

对比初始的回归树与GBDT所生成的回归树,可以发现,最终的结果是相同的,那我们为什么还要使用GBDT呢

答案就是对模型过拟合的考虑。过拟合是指为了让训练集精度更高,学到了很多“仅在训练集上成立的规律”,导致换一个数据集后,当前规律的预测精度就不足以使人满意了。毕竟,在训练精度和实际精度(或测试精度)之间,后者才是我们想要真正得到的。

在上面这个例子中,初始的回归树为达到100%精度使用了3个特征(上网时长、时段、网购金额),但观察发现,分枝“上网时长>1.1h”很显然过拟合了,不排除恰好A上网1.5h, B上网1小时,所以用上网时间是不是>1.1小时来判断所有人的年龄很显然是有悖常识的。

而在GBDT中,两棵回归树仅使用了两个特征(购物金额与对百度知道的使用方式)就实现了100%的预测精度,其分枝依据更合乎逻辑(当然这里是相比较于上网时长特征而言),算法在运行中也体现了“如无必要,勿增实体”的奥卡姆剃刀原理。

3.3 提升树实例

下表为训练数据, x x x的取值范围为区间 [ 0.5 , 10.5 ] [0.5,10.5] [0.5,10.5] y y y的取值范围为区间 [ 5.0 , 10.0 ] [5.0,10.0] [5.0,10.0],学习这个回归问题的提升树模型,考虑只用二叉树作为基函数:
在这里插入图片描述
(1)步骤一:求 f 1 ( x ) f_1(x) f1(x)即回归树 T 1 ( x ) T_1(x) T1(x)

首先通过以下优化问题:

min ⁡ s [ min ⁡ c 1 ∑ x i ∈ R 1 ( y i − c 1 ) 2 + min ⁡ c 2 ∑ x i ∈ R 2 ( y i − c 2 ) 2 ] \min_s\left[\min_{c_1}\sum_{x_i\in R_1}{\left(y_i-c_1\right)^2}+\min_{c_2}\sum_{x_i\in R_2}{\left(y_i-c_2\right)^2}\right] smin[c1minxiR1(yic1)2+c2minxiR2(yic2)2]

求解训练数据的切分点 s s s
R 1 = { x ∣ x ≤ s } , R 2 = { x ∣ x > s } R_1=\left\{x|x\le s\right\},R_2=\left\{x|x>s\right\} R1={xxs},R2={xx>s}

容易求得在 R 1 , R 2 R_1,R_2 R1R2内部使平方误差达到最小值的 c 1 , c 2 c_1,c_2 c1,c2
c 1 = 1 N 1 ∑ x i ∈ R 1 y i , c 2 = 1 N 2 ∑ x i ∈ R 2 y i c_1=\frac{1}{N_1}\sum_{x_i\in R_1}{y_i}\\ ,\\ c_2=\frac{1}{N_2}\sum_{x_i\in R_2}{y_i} c1=N11xiR1yi,c2=N21xiR2yi

这里 N 1 , N 2 N_1,N_2 N1,N2 R 1 , R 2 R_1,R_2 R1,R2的样本点数。

具体地,求解训练数据的切分点。根据所给数据,考虑如下切分点:

1.5 , 2.5 , 3.5 , 4.5 , 5.5 , 6.5 , 7.5 , 8.5 , 9.5 1.5,2.5,3.5,4.5,5.5,6.5,7.5,8.5,9.5 1.5,2.5,3.5,4.5,5.5,6.5,7.5,8.5,9.5

对各切分点,不难求出相应的 R 1 , R 2 , c 1 , c 2 R_1,R_2,c_1,c_2 R1,R2,c1,c2
m ( s ) = min ⁡ c 1 ∑ x i ∈ R 1 ( y i − c 1 ) 2 + min ⁡ c 2 ∑ x i ∈ R 2 ( y i − c 2 ) 2 m\left(s\right)=\min_{c_1}\sum_{x_i\in R_1}{\left(y_i-c_1\right)^2}+\min_{c_2}\sum_{x_i\in R_2}{\left(y_i-c_2\right)^2} m(s)=c1minxiR1(yic1)2+c2minxiR2(yic2)2

例如,当 s = 2.5 s=2.5 s=2.5时,
R 1 = { 1 , 2 } , R 2 = { 3 , 4 , ⋅ ⋅ ⋅ , 9 , 10 } , c 1 = 5.63 , c 2 = 7.73 R_1=\{1,2\},R_2=\{3,4,···,9,10\},c_1=5.63,c_2=7.73 R1={1,2}R2={3,4,,9,10}c1=5.63,c2=7.73

m ( s ) = min ⁡ c 1 ∑ x i ∈ R 1 ( y i − c 1 ) 2 + min ⁡ c 2 ∑ x i ∈ R 2 ( y i − c 2 ) 2 = 12.07 m\left(s\right)=\min_{c_1}\sum_{x_i\in R_1}{\left(y_i-c_1\right)^2}+\min_{c_2}\sum_{x_i\in R_2}{\left(y_i-c_2\right)^2}=12.07 m(s)=c1minxiR1(yic1)2+c2minxiR2(yic2)2=12.07

遍历所有的 s s s,计算 m ( s ) m(s) m(s),结果列表如下:
在这里插入图片描述

可知当 s = 6.5 s=6.5 s=6.5 m ( s ) m(s) m(s)达到最小值,此时
R 1 = { 1 , 2 , ⋅ ⋅ ⋅ , 6 } , R 2 = { 7 , 8 , 9 , 10 } , c 1 = 6.24 , c 2 = 8.91 R_1=\{1,2,···,6\},R_2=\{7,8,9,10\},c_1=6.24,c_2=8.91 R1={1,2,,6},R2={7,8,9,10},c1=6.24,c2=8.91

所以回归树 T 1 ( x ) T_1(x) T1(x)
T 1 ( x ) = { 6.24 x < 6.5 8.91 x ⩾ 6.5 f 1 ( x ) = T 1 ( x ) T_1\left(x\right)=\left\{\begin{matrix} 6.24& x<6.5\\ 8.91& x\geqslant 6.5\\ \end{matrix}\right. \\ f_1\left(x\right)=T_1\left(x\right) T1(x)={6.248.91x<6.5x6.5f1(x)=T1(x)

f 1 ( x ) f_1(x) f1(x)拟合训练数据的残差,表中 r 2 i = y i − f 1 ( x i ) r_{2i}=y_i-f_1(x_i) r2i=yif1(xi)
在这里插入图片描述

平方损失误差为:
L ( y , f 1 ( x ) ) = ∑ i = 1 10 ( y i − f 1 ( x i ) ) 2 = 1.93 L\left(y,f_1\left(x\right)\right)=\sum_{i=1}^{10}{\left(y_i-f_1\left(x_i\right)\right)^2}=1.93 L(y,f1(x))=i=110(yif1(xi))2=1.93

(2)步骤二:求 T 2 ( x ) T_2(x) T2(x),方法与求 T 1 ( x ) T_1(x) T1(x)一样,只是拟合的数据是上一步得到的残差,可以得到:
T 2 ( x ) = { − 0.52 x < 3.5 0.22 x ⩾ 3.5 f 2 ( x ) = f 1 ( x ) + T 2 ( x ) = { 5.72 x < 3.5 6.46 3.5 ≤ x < 6.5 9.13 x ⩾ 6.5 T_2\left(x\right)=\left\{\begin{matrix} -0.52& x<3.5\\ 0.22& x\geqslant 3.5\\ \end{matrix}\right. \\ f_2\left(x\right)=f_1\left(x\right)+T_2\left(x\right)=\left\{\begin{matrix} 5.72& x<3.5\\ 6.46& 3.5\le x<6.5\\ 9.13& x\geqslant 6.5\\ \end{matrix}\right. T2(x)={0.520.22x<3.5x3.5f2(x)=f1(x)+T2(x)=5.726.469.13x<3.53.5x<6.5x6.5

f 2 ( x ) f_2(x) f2(x)拟合训练数据的平方损失误差是
L ( y , f 2 ( x ) ) = ∑ i = 1 10 ( y i − f 2 ( x i ) ) 2 = 0.79 L\left(y,f_2\left(x\right)\right)=\sum_{i=1}^{10}{\left(y_i-f_2\left(x_i\right)\right)^2}=0.79 L(y,f2(x))=i=110(yif2(xi))2=0.79

继续迭代
T 3 ( x ) = { 0.15 x < 6.5 − 0.22 x ⩾ 6.5 − − − − − − L ( y , f 3 ( x ) ) = 0.47 T_3\left(x\right)=\left\{\begin{matrix} 0.15& x<6.5\\ -0.22& x\geqslant 6.5\\ \end{matrix}\right.------L\left(y,f_3\left(x\right)\right)=0.47 T3(x)={0.150.22x<6.5x6.5L(y,f3(x))=0.47

T 4 ( x ) = { − 0.16 x < 4.5 0.11 x ⩾ 4.5 − − − − − − L ( y , f 4 ( x ) ) = 0.30 T_4\left(x\right)=\left\{\begin{matrix} -0.16& x<4.5\\ 0.11& x\geqslant 4.5\\ \end{matrix}------L\left(y,f_4\left(x\right)\right)=0.30\right. T4(x)={0.160.11x<4.5x4.5L(y,f4(x))=0.30

T 5 ( x ) = { 0.07 x < 6.5 − 0.11 x ⩾ 6.5 − − − − − − L ( y , f 5 ( x ) ) = 0.23 T_5\left(x\right)=\left\{\begin{matrix} 0.07& x<6.5\\ -0.11& x\geqslant 6.5\\ \end{matrix}\right.------L\left(y,f_5\left(x\right)\right)=0.23 T5(x)={0.070.11x<6.5x6.5L(y,f5(x))=0.23

T 6 ( x ) = { − 0.15 x < 2.5 0.04 x ⩾ 2.5 T_6\left(x\right)=\left\{\begin{matrix} -0.15& x<2.5\\ 0.04& x\geqslant 2.5\\ \end{matrix}\right. T6(x)={0.150.04x<2.5x2.5

f 6 ( x ) = f 5 ( x ) + T 6 ( x ) = T 1 ( x ) + ⋅ ⋅ ⋅ + T 5 ( x ) + T 6 ( x ) = { 5.63 x < 2.5 5.82 2.5 ≤ x < 3.5 6.56 3.5 ≤ x < 4.5 6.83 4.5 ≤ x < 6.5 8.95 x ⩾ 6.5 f_6\left(x\right)=f_5\left(x\right)+T_6\left(x\right)=T_1\left(x\right)+···+T_5\left(x\right)+T_6\left(x\right) \\ =\left\{\begin{matrix} 5.63& x<2.5\\ 5.82& 2.5\le x<3.5\\ 6.56& 3.5\le x<4.5\\ 6.83& 4.5\le x<6.5\\ 8.95& x\geqslant 6.5\\ \end{matrix}\right. f6(x)=f5(x)+T6(x)=T1(x)++T5(x)+T6(x)=5.635.826.566.838.95x<2.52.5x<3.53.5x<4.54.5x<6.5x6.5

f 6 ( x ) f_6(x) f6(x)拟合训练数据的平方损失误差是
L ( y , f 1 ( x ) ) = ∑ i = 1 10 ( y i − f 1 ( x i ) ) 2 = 0.17 L\left(y,f_1\left(x\right)\right)=\sum_{i=1}^{10}{\left(y_i-f_1\left(x_i\right)\right)^2}=0.17 L(y,f1(x))=i=110(yif1(xi))2=0.17

假设此时已满足误差要求,那么 f ( x ) = f 6 ( x ) f(x)=f_6(x) f(x)=f6(x)即为所求提升树。

四、Gradient Boosting Decision Tree:梯度提升决策树

4.1 GBDT简介

提升树利用加法模型与前向分布算法实现学习的优化过程,即是通过迭代得到一系列的弱分类器,进而通过不同的组合策略得到相应的强学习器。在GBDT的迭代中,假设前一轮得到的学习器为 f t − 1 ( x ) f_{t−1}(x) ft1(x),对应的损失函数则为 L ( y , f t − 1 ( x ) ) L(y,f_{t-1}{(x)}) L(y,ft1(x))。因此新一轮迭代的目的就是找到一个弱分类器 h t ( x ) h_t{(x)} ht(x),使得损失函数 L ( y , f t − 1 ( x ) + h t ( x ) ) L(y,f_{t-1}{(x)}+h_t{(x)}) L(y,ft1(x)+ht(x))达到最小。

因此问题的关键就在于对损失函数的度量,这也正是难点所在。当损失函数是平方损失和指数损失时,每一步优化是很简单的。但对一般损失函数而言,往往每一步优化没那么容易,如绝对值损失函数和Huber损失函数。常见的损失函数及其梯度如下表所示:
在这里插入图片描述
那我们怎么样才能找到一种通用的拟合方法呢?

针对这一问题,Freidman提出了梯度提升算法:利用最速下降的近似方法,即利用损失函数的负梯度在当前模型的值
− [ ∂ L ( y , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) -\left[\frac{\partial L\left(y,f\left(x_i\right)\right)}{\partial f\left(x_i\right)}\right]_{f\left(x\right)=f_{m-1}\left(x\right)} [f(xi)L(y,f(xi))]f(x)=fm1(x)

作为回归问题中提升树算法的残差的近似值(与其说负梯度作为残差的近似值,不如说残差是负梯度的一种特例,拟合一个回归树),这就是梯度提升决策树。

4.2 GBDT算法步骤

算法步骤如下:
在这里插入图片描述

接下来对上图中的算法步骤进行详细解释:

1)初始化弱分类器,估计使损失函数极小化的一个常数值,此时树仅有一个根结点
f 0 ( x ) = a r g min ⁡ c ∑ i = 1 N L ( y i , c ) f_0\left(x\right)=arg\min_c\sum_{i=1}^N{L\left(y_i,c\right)} f0(x)=argcmini=1NL(yi,c)

2)对迭代轮数 1 , 2 , ⋅ ⋅ ⋅ , M 1,2,⋅⋅⋅,M 1,2,,M (即产生树的个数为 M M M)

  • a)对 i = 1 , 2 , ⋅ ⋅ ⋅ , N i=1,2,⋅⋅⋅,N i=1,2,,N N N N个样本),计算损失函数的负梯度值在当前模型的值,将它作为残差的估计。即
    r m i = − [ ∂ L ( y , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) r_{mi}=-\left[\frac{\partial L\left(y,f\left(x_i\right)\right)}{\partial f\left(x_i\right)}\right]_{f\left(x\right)=f_{m-1}\left(x\right)} rmi=[f(xi)L(y,f(xi))]f(x)=fm1(x)
    对于平方损失函数,它就是通常所说的残差;对于一般损失函数,它就是残差的近似值。

  • b)对 r m i r_{mi} rmi拟合一个回归树,得到第 m m m棵树的叶结点区域 R m j , j = 1 , 2 , ⋅ ⋅ ⋅ , J R_{mj},j=1,2,···,J Rmjj=1,2,,J

  • c)对 j = 1 , 2 , ⋅ ⋅ ⋅ , J j=1,2,⋅⋅⋅,J j=1,2,,J计算
    c m j = a r g min ⁡ c ∑ x i ∈ R m j L ( y i , f m − 1 ( x i ) + c ) c_{mj}=arg\min_c\sum_{x_i\in R_{mj}}{L\left(y_i,f_{m-1}\left(x_i\right)+c\right)} cmj=argcminxiRmjL(yi,fm1(xi)+c)
    即利用线性搜索估计叶结点区域的值,使损失函数极小化。

  • d)更新回归树
    f m ( x ) = f m − 1 ( x ) + ρ ∑ j = 1 J c m j I ( x ∈ R m j ) f_m\left(x\right)=f_{m-1}\left(x\right)+\rho\sum_{j=1}^J{c_{mj}I\left(x\in R_{mj}\right)} fm(x)=fm1(x)+ρj=1JcmjI(xRmj)
    I ( x ) I(x) I(x)为Indicator函数,即样本 x x x属于哪个叶节点,即加上这个叶节点的 c m j c_{mj} cmj。在这里,其实应该有 ρ \rho ρ,只不过图中没有标注而已,具体在4.3节例子中可以看到。

3)得到输出的最终模型
f ^ ( x ) = f M ( x ) = ρ ∑ m = 1 M ∑ j = 1 J c m j I ( x ∈ R m j ) \hat{f}\left(x\right)=f_M\left(x\right)=\rho\sum_{m=1}^M{\sum_{j=1}^J{c_{mj}I\left(x\in R_{mj}\right)}} f^(x)=fM(x)=ρm=1Mj=1JcmjI(xRmj)

NOTE: 在这里,需要仔细解释下上述算法的注意事项:

①对于算法的2.(a)步,损失函数选择使用:
L ( y i , f ( x i ) ) = ( 1 2 ) ∗ ( y i − f ( x i ) ) 2 L(y_i,f(x_i))=\left(\frac{1}{2}\right)*(y_i-f(x_i))^2 L(yi,f(xi))=(21)(yif(xi))2,那么其负梯度值为: − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] = ( y i − f ( x i ) ) \large -\left[\frac{\partial L(y_i,f(\mathbf{x}_i))}{\partial f(\mathbf{x}_i)}\right]=(y_i-f(x_i)) [f(xi)L(yi,f(xi))]=(yif(xi)),再带入当前模型的值 f ( x ) = f m − 1 ( x ) \large {f(x)=f_{m-1}(x)} f(x)=fm1(x),则有:
y i ~ = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) = ( y i − f m − 1 ( x i ) ) \tilde{y_i}=-\left[\frac{\partial L(y_i,f(\mathbf{x}_i))}{\partial f(\mathbf{x}_i)}\right]_{f(x)=f_{m-1}(x)}=(y_i-f_{m-1}(x_i)) yi~=[f(xi)L(yi,f(xi))]f(x)=fm1(x)=(yifm1(xi))

为了方便说明问题,这里用 y i ~ \tilde{y_i} yi~代替 r i r_i ri表示损失函数的负梯度在当前模型的值,在以后均这么表示。所以我们能看到,当损失函数选用Least-square时,每一次拟合的值就是(真实值-当前模型的值)。
比如说,损失函数选择Least-absolute使用 L ( y i , f ( x i ) ) = ∣ y i − f ( x i ) ∣ L(y_i,f(x_i))=\left|y_i-f(x_i)\right| L(yi,f(xi))=yif(xi),其梯度值为:
y i ~ = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) = s i g n ( y i − f m − 1 ( x i ) ) \tilde{y_i}=-\left[\frac{\partial L(y_i,f(\mathbf{x}_i))}{\partial f(\mathbf{x}_i)}\right]_{f(x)=f_{m-1}(x)}=sign\left(y_i-f_{m-1}(x_i)\right) yi~=[f(xi)L(yi,f(xi))]f(x)=fm1(x)=sign(yifm1(xi))

其中 s i g n sign sign是符号函数。
比如说,损失函数选择使用logistic loss时:(二分类任务) L ( y i , f ( x i ) ) = y i l o g ( p i ) + ( 1 − y i ) l o g ( 1 − p i ) L\left(y_i,f(x_i)\right)=y_ilog(p_i)+(1-y_i)log(1-p_i) L(yi,f(xi))=yilog(pi)+(1yi)log(1pi),其中 p i = 1 1 + e − f ( x i ) p_i=\frac{1}{1+e^{-f(x_i)}} pi=1+ef(xi)1,其梯度值为:
y i ~ = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) = y i − 1 1 + e − f m − 1 ( x i ) \tilde{y_i}=-\left[\frac{\partial L(y_i,f(\mathbf{x}_i))}{\partial f(\mathbf{x}_i)}\right]_{f(x)=f_{m-1}(x)}=y_i-\frac{1}{1+e^{-f_{m-1}(x_i)}} yi~=[f(xi)L(yi,f(xi))]f(x)=fm1(x)=yi1+efm1(xi)1

关于如何推导logistic loss的梯度,在接下来会展示。
②对于算法的2.(b)步,对于决策树,寻找一个最优的树的过程其实依靠的就是启发式的分裂准则。

③对于算法的2.(c)步,我们得到叶子节点对应的区域,那么叶子节点的取值为多少?也就是这颗树到底输出多少?

在Friedman的论文中有这部分的推导。这里简单总结一下:

叶子节点的取值和所选择的loss function有关。对于不同的Loss function,叶子节点的值也不一样。

首先,记第 m m m颗树的第 j j j个叶子节点的值为 c j m c_{jm} cjm
比如,选择MSE作为loss function时:
c j m = a v e x i ∈ R j m y i ~ \large c_{jm}=ave_{{x_i} \in R_{jm}}\tilde{y_i} cjm=avexiRjmyi~

y i ~ \tilde{y_i} yi~为梯度值。
比如,选择MAE作为Loss function时:
c j m = m e d i a n x i ∈ R j m ( y i − f m − 1 ( x i ) ) \large c_{jm}=median_{{x_i} \in R_{jm}}\left({y_i-f_{m-1}(x_i)}\right) cjm=medianxiRjm(yifm1(xi))

比如,选择Logistic loss作为Loss function时:
c j m = ∑ i = 1 N y i ~ ∑ i = 1 N ( y i − y i ~ ) ∗ ( 1 − y i + y i ~ ) \large c_{jm}=\frac{\sum_{i=1}^{N}\tilde{y_i}}{\sum_{i=1}^{N}(y_i-\tilde{y_i})*(1-y_i+\tilde{y_i})} cjm=i=1N(yiyi~)(1yi+yi~)i=1Nyi~

比如,选择指数损失作为loss function时:
c j m = ∑ i = 1 N ( 2 y i − 1 ) e ( − ( 2 y i − 1 ) f m − 1 ( x i ) ) ∑ i = 1 N e ( − ( 2 y i − 1 ) f m − 1 ( x i ) ) \large c_{jm}=\frac{\sum_{i=1}^{N}(2y_i-1)e^{\left(-(2y_i-1)f_{m-1}(x_i)\right)}}{\sum_{i=1}^{N}e^{\left(-(2y_i-1)f_{m-1}(x_i)\right)}} cjm=i=1Ne((2yi1)fm1(xi))i=1N(2yi1)e((2yi1)fm1(xi))

这些叶子节点的取值推导过程在论文中其实也只是几笔带过,有兴趣的可以深入研究为何。

④对于算法的2.(d)步,在GBDT里,通常将这个过程作为Shrinkage,也就是把 ρ \rho ρ做为学习率,后面实践部分可以看到效果。

⑤一个特别细节的问题是,在1)步,根节点 f 0 ( x ) f_0(x) f0(x)的初始值怎么设定:什么需要初始化?很简单,因为每次在计算负梯度值时需要用到前一个模型 f m − 1 ( x i ) f_{m−1}(x_i) fm1(xi)预测的值。对于我们训练的第一个模型 m = 1 m=1 m=1而言需要有 f 0 ( x i ) f_0(x_i) f0(xi)的存在。

那么 f 0 ( x i ) f_0(x_i) f0(xi)初始化为多少?这个取决于loss function的选择,下面给出一般的做法:

当loss function选择MSE时, f 0 ( x ) = y ˉ f_0(x)=\bar{y} f0(x)=yˉ为样本真实值的平均值。比如有数据集:

CSDN图标

那么 f 0 ( x ) = y ˉ = 7.306 f_0(x)=\bar{y}=7.306 f0(x)=yˉ=7.306

当loss function选择MAE时, f 0 ( x ) = m e d i a n y f_0(x)=median_{y} f0(x)=mediany,也就说用真实值的中位数作为初始值。

当loss function选择logisit loss时, f 0 ( x ) = ( 1 2 ) ∗ l o g ( ∑ y i ∑ ( 1 − y i ) ) f_0(x)=\left(\frac{1}{2}\right)*log\left(\frac{\sum{y_i}}{\sum{(1-y_i)}}\right) f0(x)=(21)log((1yi)yi)
这里需要注意的是,这里就是利用对数几率来初始化,分子 ∑ y i \sum{y_i} yi就是正样本的个数,分母就是负样本的个数。
比如说,对于数据集:

CSDN图标

f 0 ( x ) = ( 1 2 ) ∗ l o g ( ∑ y i ∑ ( 1 − y i ) ) = ( 1 2 ) ∗ l o g ( 3 7 ) \large f_0(x)=\left(\frac{1}{2}\right)*log\left(\frac{\sum{y_i}}{\sum{(1-y_i)}}\right)=\left(\frac{1}{2}\right)*log\left(\frac{3}{7}\right) f0(x)=(21)log((1yi)yi)=(21)log(73)

另外,再介绍一个Loss function,指数损失。具体表达为: L ( y i , f ( x i ) ) = e − y f ( x i ) \large L\left(y_i,f(x_i)\right)=e^{-yf(x_i)} L(yi,f(xi))=eyf(xi),其负梯度大家可以求求。其初始化和上面提到Logisit loss的初始化是一样的。

4.3 GBDT实例

在介绍完GBDT的训练过程和细节后,可能大家还有些懵。我们举例来说明GBDT的训练过程,可以清晰地看明白过程。为了方便说明,我们用下面这个很简单的数据。

x i x_i xi12345678910
y i y_i yi5.565.75.916.46.87.058.98.79.9.05
  1. 选择MSE做为建树的分裂准则

  2. 选择MSE作为误差函数

  3. 树的深度设置为1

(1)步骤一:根据GBDT算法,我们需要初始化 f 0 ( x ) f_0(x) f0(x),MSE使用均值作为初始化,因此 f 0 ( x ) = 7.307 f_0(x)=7.307 f0(x)=7.307

(2)步骤二:拟合第一颗树 ( m = 1 ) (m=1) m=1

由公式,可以计算负梯度值:
y i ~ = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) = ( y i − f m − 1 ( x i ) ) \tilde{y_i}=-\left[\frac{\partial L(y_i,f(\mathbf{x}_i))}{\partial f(\mathbf{x}_i)}\right]_{f(x)=f_{m-1}(x)}=(y_i-f_{m-1}(x_i)) yi~=[f(xi)L(yi,f(xi))]f(x)=fm1(x)=(yifm1(xi))

具体结果如下表:

x i x_i xi12345678910
y i ~ \tilde{y_i} yi~-1.747-1.607-1.397-0.907-0.507-0.2571.5931.3931.6931.743

得到梯度值后,下面就是以 y i ~ \tilde{y_i} yi~为目标值进行拟合。

这里简单回顾一下决策树建树的过程:

决策树学习最关键的步骤就是选择最优划分属性,一般而言,随着划分过程不断的进行,我们希望决策树的分支节点所包含的样本尽可能属于同一类别(方差小)。通常,我们会选择一个准则来评价划分的质量,比如回归树中经常使用的MSE(这种方法属于启发式的)

对于连续值,我们可以穷尽每个值 v v v,把每个值 v v v作为一个分裂点( < = v <=v <=v > v >v >v),然后计算两个分支的 M S E l e f t 、 M S E r i g h t MSE_{left}、MSE_{right} MSEleftMSEright。选择最小的 M S E s u m = M S E l e f t + M S E r i g h t MSE_{sum}=MSE_{left}+MSE_{right} MSEsum=MSEleft+MSEright的分裂点 v v v 。当然关于连续值,也可以把属性值从小到大排序,选择每2个值的中值进行判断。

对于类别型特征,我们有类似的做法,通过 = = = ≠ ≠ =来划分。

当选择 1 1 1作为分裂点时候, M S E l e f t = 0 MSE_{left}=0 MSEleft=0, M S E r i g h t = 1.747 MSE_{right}=1.747 MSEright=1.747

当选择 2 2 2作为分裂点时候, M S E l e f t = 0.0049 MSE_{left}=0.0049 MSEleft=0.0049, M S E r i g h t = 1.5091 MSE_{right}=1.5091 MSEright=1.5091

依次,穷尽所有取值。

可以得到当选择 6 6 6作为分裂点时 M S E s u m = 0.3276 MSE_{sum}=0.3276 MSEsum=0.3276最小

至此,我们完成了第一颗树的拟合,拟合完之后我们得到了 R j m R_{jm} Rjm以及 c j m c_{jm} cjm ,具体为:
R 11 为 x i < = 6 , R 21 为 x i > 6 R_{11}为x_i<=6,R_{21}为x_i>6 R11xi<=6,R21xi>6

c 11 = ( y ~ 1 + y ~ 2 + y ~ 3 + y ~ 4 + y ~ 5 + y ~ 6 ) 6 = − 1.0703 c_{11}=\frac{\left(\tilde{y}_1+\tilde{y}_2+\tilde{y}_3+\tilde{y}_4+\tilde{y}_5+\tilde{y}_6\right)}{6}=-1.0703 c11=6(y~1+y~2+y~3+y~4+y~5+y~6)=1.0703

c 21 = ( y ~ 7 + y ~ 8 + y ~ 9 + y ~ 10 ) 4 = 1.6055 c_{21}=\frac{\left(\tilde{y}_7+\tilde{y}_8+\tilde{y}_9+\tilde{y}_{10}\right)}{4}=1.6055 c21=4(y~7+y~8+y~9+y~10)=1.6055

最后更新 f 1 ( x i ) f_1(x_i) f1(xi)值, f 1 ( x i ) = f 0 ( x i ) + ∑ j = 1 2 c j 1 I ( x i ∈ R j 1 ) f_1(x_i)=f_0(x_i)+\sum_{j=1}^2c_{j1}I(x_i \in R_{j1}) f1(xi)=f0(xi)+j=12cj1I(xiRj1)

这里需要注意的是,算法2.(d)我们提到一个算法步骤是Shrinkage。在GBDT里,我们通过不会直接把上一个轮的预测值 f m − 1 ( x ) f_{m-1}(x) fm1(x)直接加上 ∑ j = 1 J c j m I ( x i ∈ R j m ) \sum_{j=1}^Jc_{jm}I(x_i \in R_{jm}) j=1JcjmI(xiRjm),而是会在 ∑ j = 1 J c j m I ( x i ∈ R j m ) \sum_{j=1}^Jc_{jm}I(x_i \in R_{jm}) j=1JcjmI(xiRjm)乘上一个学习率。可以理解,因为如果每次完全加上(学习率为1)本轮模型的预测值容易导致过拟合。所以通常在GBDT中的做法是:

f m ( x ) = f m − 1 ( x ) + ρ ∗ ∑ j = 1 J c j m I ( x ∈ R j m ) f_m(x)=f_{m-1}(x)+\rho*\sum_{j=1}^Jc_{jm}I(x \in R_{jm}) fm(x)=fm1(x)+ρj=1JcjmI(xRjm) ρ \rho ρ为学习率。所以,当 ρ = 0.1 \rho=0.1 ρ=0.1时,上面的计算结果变为

f 1 ( x 1 ) = f 0 ( x 1 ) + 0.1 ∗ ∑ j = 1 2 c j 1 I ( x 1 ∈ R j 1 ) = 7.307 − 0.1 ∗ 1.0703 = 7.19997 f_1(x_1)=f_0(x_1)+0.1*\sum_{j=1}^2c_{j1}I(x_1\in R_{j1})=7.307-0.1*1.0703=7.19997 f1(x1)=f0(x1)+0.1j=12cj1I(x1Rj1)=7.3070.11.0703=7.19997

至此一轮迭代(第一个颗树拟合)完成,下面开始第二轮迭代(第二颗树拟合)。

(3)步骤三:拟合第二颗树( m = 2 m=2 m=2)

比如,这里示范计算 y ~ 1 \tilde{y}_1 y~1

y 1 ~ = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) = ( y 1 − f 1 ( x 1 ) ) = ( 5.56 − 7.19997 ) = − 1.63997 \tilde{y_1}=-\left[\frac{\partial L(y_i,f(\mathbf{x}_i))}{\partial f(\mathbf{x}_i)}\right]_{f(x)=f_{m-1}(x)}=(y_1-f_{1}(x_1))=(5.56-7.19997)=-1.63997 y1~=[f(xi)L(yi,f(xi))]f(x)=fm1(x)=(y1f1(x1))=(5.567.19997)=1.63997

其他由公式计算可以得到下表:

x i x_i xi12345678910
y i ~ \tilde{y_i} yi~-1.63997-1.49997-1.28997-0.79997-0.39997-0.1499671.432451.232451.532451.58245

因此,在第二颗树中,拟合的是新的梯度值。下面的过程就是建树->计算叶子节点的值、叶子节点的区间->更新 f 2 ( x ) f_2(x) f2(x)。所以就不在累述了。

最后得到两个叶子节点值分别为:
c 12 = − 0.9633 c{12}=-0.9633 c12=0.9633

c 22 = 1.44495 c{22}=1.44495 c22=1.44495

最后,我们来看一下如何进行预测。

图里的 γ \gamma γ即为 c c c F ( ) F() F()即为 f ( ) f() f()

在这里有必要再解释一下预测过程:如果要预测一个新的样本 x x x,且此时只训练出两个树,则预测的值为 f 2 ( x ) f_2(x) f2(x),并非是 f 0 ( x ) + f 1 ( x ) + f 2 ( x ) f_0(x)+f_1(x)+f_2(x) f0(x)+f1(x)+f2(x)。这是显然的:因为在每一个 f m ( x ) f_m(x) fm(x)中都已经是在 f m − 1 ( x ) f_{m-1}(x) fm1(x)的基础上得来的。或者说,在GBDT中,每一个样本都一定会出现在每一颗树的某个叶子节点中,把所有的叶子节点的值相加就是这个样本预测的值

这篇文章也有一个GBDT做回归的例子,感兴趣的读者可以去读下再次加深印象。

五、总结

我们来简单的总结一下。

回头看,其实GBDT的思路是很简单的,每一次用一个回归树来拟合一个梯度值。而这个梯度值就只是损失函数的一阶导数在当前模型的取值。拟合完一颗树之后,需要计算叶子节点的值,而这个值是和损失函数有关的,当然,数学大神们已经为我们计算好常用的一些损失函数的叶子节点取值。最终预测结果其实就是每一颗树的预测结果相加,所以整个过程都非常的好理解。即为:初始化->计算负梯度值->用回归树拟合负梯度值->计算叶子节点值->更新 f m ( x ) f_m(x) fm(x)

六、细节Q&A

6.1 GBDT根节点的初始值怎么设定?

与损失函数有关,本篇4.2.Note.⑤中有介绍。

6.2 GBDT叶子节点的取值为多少?

与损失函数有关,本篇4.2.Note.③中有介绍。

6.3 GBDT如何做二分类?

前几章介绍的是如何做回归,那么GBDT如何做二分类呢?相信,大多数小伙伴都不是特别清楚。因此,这里单独把GBDT如何做二分类作为一个问题来讲解。

6.3.1 Logistic loss损失

分类任务的GBDT算法过程其实与回归过程的算法过程几乎没有区别,只不过其中选用的loss function是Logistic loss:
L ( y i , f m ( x i ) ) = − { y i l o g p i + ( 1 − y i ) l o g ( 1 − p i ) } L\left(y_i,f_m(x_i)\right)=-\{y_ilogp_i+(1-y_i)log(1-p_i)\} L(yi,fm(xi))={yilogpi+(1yi)log(1pi)}

其中, p i = 1 1 + e − f m ( x ) p_i=\frac{1}{1+e^{-f_m(x)}} pi=1+efm(x)1


这里简单推导一下logloss通常化简后的式子:
L ( y i , f m ( x i ) ) = − { y i l o g p i + ( 1 − y i ) l o g ( 1 − p i ) } L\left(y_i,f_m(x_i)\right)=-\left\{y_ilogp_i+(1-y_i)log(1-p_i)\right\} L(yi,fm(xi))={yilogpi+(1yi)log(1pi)}

先不代入负号。

代入 p i p_i pi=> y i l o g ( 1 1 + e ( − f m ( x i ) ) ) + ( 1 − y i ) l o g ( e ( − f m ( x i ) ) 1 + e ( − f m ( x i ) ) ) \large y_i log(\frac{1}{1+e^{(-f_m(x_i))}})+(1-y_i)log(\frac{e^{(-f_m(x_i))}}{1+e^{(-f_m(x_i))}}) yilog(1+e(fm(xi))1)+(1yi)log(1+e(fm(xi))e(fm(xi)))

=> − y i l o g ( 1 + e ( − f m ( x i ) ) ) + ( 1 − y i ) { l o g ( e ( − f m ( x i ) ) ) − l o g ( 1 + e ( − f m ( x i ) ) } -y_ilog(1+e^{(-f_m(x_i))})+(1-y_i)\{log(e^{(-f_m(x_i))})-log(1+e^{(-f_m(x_i))}\} yilog(1+e(fm(xi)))+(1yi){log(e(fm(xi)))log(1+e(fm(xi))}

=> − y i l o g ( 1 + e ( − f m ( x i ) ) ) + l o g ( e ( − f m ( x i ) ) ) − l o g ( 1 + e ( − f m ( x i ) ) ) − y i l o g ( e ( − f m ( x i ) ) ) + y i l o g ( 1 + e ( − f m ( x i ) ) ) -y_ilog(1+e^{(-f_m(x_i))})+log(e^{(-f_m(x_i))})-log(1+e^{(-f_m(x_i))})-y_ilog(e^{(-f_m(x_i))}) \\+y_ilog(1+e^{(-f_m(x_i))}) yilog(1+e(fm(xi)))+log(e(fm(xi)))log(1+e(fm(xi)))yilog(e(fm(xi)))+yilog(1+e(fm(xi)))

=> y i f m ( x i ) − l o g ( 1 + e f m ( x i ) ) y_if_m(x_i)-log(1+e^{f_m(x_i)}) yifm(xi)log(1+efm(xi))

最后加上负号可以得:

L ( y i , f m ( x i ) ) = − { y i l o g p i + ( 1 − y i ) l o g ( 1 − p i ) } = − { y i f m ( x i ) − l o g ( 1 + e f m ( x i ) ) } L\left(y_i,f_m(x_i)\right)=-\left\{y_ilogp_i+(1-y_i)log(1-p_i)\right\}=-\left\{y_if_m(x_i)-log\left(1+e^{f_m(x_i)}\right)\right\} L(yi,fm(xi))={yilogpi+(1yi)log(1pi)}={yifm(xi)log(1+efm(xi))}

对上述公式求导,则

y i ~ = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) = y i − 1 1 + e − f m − 1 ( x i ) \tilde{y_i}=-\left[\frac{\partial L(y_i,f(\mathbf{x}_i))}{\partial f(\mathbf{x}_i)}\right]_{f(x)=f_{m-1}(x)}=y_i-\frac{1}{1+e^{-f_{m-1}(x_i)}} yi~=[f(xi)L(yi,f(xi))]f(x)=fm1(x)=yi1+efm1(xi)1

这就是logloss负梯度的公式。


6.3.2 算法流程

CSDN图标

可以看出来,GBDT用于做二分类与做回归没有什么流程上的区别,只是初始节点、叶子节点和负梯度不同而已,这是因为采用的损失函数不同。

6.3.3 二分类实例

下面同样以一个简单的数据集来大致的介绍一下GBDT做二分类的过程。

x i x_i xi12345678910
y i y_i yi0001100011

参数配置:

  1. 以logloss为损失函数

  2. 以MSE为分裂准则 (与做回归时采用的相同)

  3. 树的深度为1

  4. 学习率为0.1

(1)步骤一:初始化。 f 0 ( x ) = l o g ( ∑ i = 1 N y i ∑ i = 1 N ( 1 − y i ) ) = l o g ( 4 6 ) = − 0.4054 f_0(x)=log\left(\frac{\sum_{i=1}^N y_i}{\sum_{i=1}^N(1-y_i)}\right)=log\left(\frac{4}{6}\right)=-0.4054 f0(x)=log(i=1N(1yi)i=1Nyi)=log(64)=0.4054 (这里少乘了 1 / 2 1/2 1/2

(2)步骤二:拟合第一颗树 ( m = 1 ) (m=1) (m=1)

计算负梯度值:

y i ~ = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) = y i − 1 1 + e ( − f m − 1 ( x i ) ) = y i − 1 1 + e ( − f 0 ( x i ) ) \tilde{y_i}=-[\frac{\partial L(y_i,f(\mathbf{x}_i))}{\partial f(\mathbf{x}_i)}]_{f(x)=f_{m-1}(x)}=y_i-\frac{1}{1+e^{(-f_{m-1}(x_i))}}=y_i-\frac{1}{1+e^{(-f_{0}(x_i))}} yi~=[f(xi)L(yi,f(xi))]f(x)=fm1(x)=yi1+e(fm1(xi))1=yi1+e(f0(xi))1

比如计算第一个样本 ( i = 1 ) (i=1) (i=1)有:

y 1 ~ = 0 − 1 1 + e ( 0.4054 ) = − 0.400 \tilde{y_1}=0-\frac{1}{1+e^{(0.4054)}}=-0.400 y1~=01+e(0.4054)1=0.400

同样地,其他计算后如下表:

x i x_i xi12345678910
y i ~ \tilde{y_i} yi~-0.4-0.4-0.40.60.6-0.4-0.4-0.40.60.6

接着,我们需要以 y i ~ \tilde{y_i} yi~为目标,拟合一颗树。

拟合树的过程在介绍GBDT做回归时已经详细介绍了,这里就不再累述了。拟合完后结果如下:

可以得出建好树之后叶子节点的区域:

R 11 R_{11} R11 x i < = 8 x_i<=8 xi<=8 R 21 R_{21} R21 x i > 8 x_i>8 xi>8

下面计算可以叶子节点的值 c j m c_{jm} cjm

由公式:
c j m = ∑ x i ∈ R j m y ~ i ∑ x i ∈ R j m ( y i − y ~ i ) ∗ ( 1 − y i + y ~ i ) c_{jm}=\frac{\sum_{x_i \in R_{jm}}\tilde{y}_i}{\sum_{x_i \in R_{jm}}(y_i-\tilde{y}_i)*(1-y_i+\tilde{y}_i)} cjm=xiRjm(yiy~i)(1yi+y~i)xiRjmy~i

对于区域 R 11 R_{11} R11有如下
∑ x i ∈ R 11 y ~ i = ( y ~ 1 + y ~ 2 + y ~ 3 + y ~ 4 + y ~ 5 + y ~ 6 + y ~ 7 + y ~ 8 ) = − 1.2 \sum_{x_i \in R_{11}}\tilde{y}_i=(\tilde{y}_1+\tilde{y}_2+\tilde{y}_3+ \tilde{y}_4+\tilde{y}_5+\tilde{y}_6+\tilde{y}_7+\tilde{y}_8)=-1.2 xiR11y~i=(y~1+y~2+y~3+y~4+y~5+y~6+y~7+y~8)=1.2

∑ x i ∈ R 11 ( y i − y ~ i ) ∗ ( 1 − y i + y ~ i ) = ( y 1 − y ~ 1 ) ∗ ( 1 − y 1 + y ~ 1 ) + ( y 2 − y ~ 2 ) ∗ ( 1 − y 2 + y ~ 2 ) + ( y 3 − y ~ 3 ) ∗ ( 1 − y 3 + y ~ 3 ) + ( y 4 − y ~ 4 ) ∗ ( 1 − y 4 + y ~ 4 ) + ( y 5 − y ~ 5 ) ∗ ( 1 − y 5 + y ~ 5 ) + ( y 6 − y ~ 6 ) ∗ ( 1 − y 6 + y ~ 6 ) + ( y 7 − y ~ 7 ) ∗ ( 1 − y 7 + y ~ 7 ) + ( y 8 − y ~ 8 ) ∗ ( 1 − y 8 + y ~ 8 ) = 1.92 \sum_{x_i \in R_{11}}(y_i-\tilde{y}_i)*(1-y_i+\tilde{y}_i)=(y_1-\tilde{y}_1)*(1-y_1+\tilde{y}_1)+(y_2-\tilde{y}_2)*(1-y_2+\tilde{y}_2)+(y_3-\tilde{y}_3)*(1-y_3+\tilde{y}_3)+(y_4-\tilde{y}_4)*(1-y_4+\tilde{y}_4)+(y_5-\tilde{y}_5)*(1-y_5+\tilde{y}_5)+(y_6-\tilde{y}_6)*(1-y_6+\tilde{y}_6)+(y_7-\tilde{y}_7)*(1-y_7+\tilde{y}_7)+(y_8-\tilde{y}_8)*(1-y_8+\tilde{y}_8)=1.92 xiR11(yiy~i)(1yi+y~i)=(y1y~1)(1y1+y~1)+(y2y~2)(1y2+y~2)+(y3y~3)(1y3+y~3)+(y4y~4)(1y4+y~4)+(y5y~5)(1y5+y~5)+(y6y~6)(1y6+y~6)+(y7y~7)(1y7+y~7)+(y8y~8)(1y8+y~8)=1.92

对于区域 R 21 R_{21} R21有如下:
∑ x i ∈ R 21 y ~ i = ( y ~ 9 + y ~ 10 ) = 1.2 \sum_{x_i \in R_{21}}\tilde{y}_i=(\tilde{y}_9+\tilde{y}_{10})=1.2 xiR21y~i=(y~9+y~10)=1.2

∑ x i ∈ R 21 ( y i − y ~ i ) ∗ ( 1 − y i + y ~ i ) = ( y 9 − y ~ 9 ) ∗ ( 1 − y 9 + y ~ 9 ) + ( y 10 − y ~ 10 ) ∗ ( 1 − y 10 + y ~ 10 ) = 0.48 \sum_{x_i \in R_{21}}(y_i-\tilde{y}_i)*(1-y_i+\tilde{y}_i)=(y_9-\tilde{y}_9)*(1-y_9+\tilde{y}_9)+(y_{10}-\tilde{y}_{10})*(1-y_{10}+\tilde{y}_{10})=0.48 xiR21(yiy~i)(1yi+y~i)=(y9y~9)(1y9+y~9)+(y10y~10)(1y10+y~10)=0.48

故最后可以得到两个叶子节点的值:

c 11 = − 1.2 1.92 = − 0.625 c_{11}=\frac{-1.2}{1.92}=-0.625 c11=1.921.2=0.625 c 21 = 1.2 0.480 = 2.5 \large c_{21}=\frac{1.2}{0.480}=2.5 c21=0.4801.2=2.5

最后通过 f m ( x ) = f m − 1 ( x ) + ∑ j = 1 J c j m I ( x ∈ R j m ) f_m(x)=f_{m-1}(x)+\sum_{j=1}^Jc_{jm}I(x \in R_{jm}) fm(x)=fm1(x)+j=1JcjmI(xRjm)更新 f 1 ( x ) f_1(x) f1(x),需要注意的是,这里同样也用shrinkage,即乘一个学习率 ρ \rho ρ,具体表现为:
f m ( x ) = f m − 1 ( x ) + ρ ∗ ∑ j = 1 J c j m I ( x ∈ R j m ) f_m(x)=f_{m-1}(x)+\rho*\sum_{j=1}^Jc_{jm}I(x \in R_{jm}) fm(x)=fm1(x)+ρj=1JcjmI(xRjm)

以计算 x 1 x_1 x1为例:

f 1 ( x 1 ) = f 0 ( x 1 ) + 0.1 ∗ ( − 0.625 ) = − 0.4054 − 0.0625 = − 0.4679 f_1(x_1)=f_0(x_1)+0.1*(-0.625)=-0.4054-0.0625=-0.4679 f1(x1)=f0(x1)+0.1(0.625)=0.40540.0625=0.4679

其他计算完毕后如下表供参考:

x i x_i xi12345678910
f 1 ( x 1 ) f_1(x_1) f1(x1)0.46797-0.46797-0.46797-0.46797-0.46797-0.46797-0.46797-0.46797-0.15547-0.15547

至此,第一颗树已经训练完成。可以再次看到其训练过程和回归基本没有区别。

(3)步骤三:拟合第二颗树 ( m = 2 ) (m=2) (m=2)

计算负梯度值:

比如对于 x 1 x_1 x1有:

y ~ 1 = y 1 − 1 1 + e ( − f 1 ( x 1 ) ) = 0 − 0.38509 = − 0.38509 \tilde{y}_1=y_1-\frac{1}{1+e^{(-f_{1}(x_1))}}=0-0.38509=-0.38509 y~1=y11+e(f1(x1))1=00.38509=0.38509

其他同理,可得下表:

x i x_i xi12345678910
y i ~ \tilde{y_i} yi~-0.3851-0.3851-0.38510.61490.6149-0.3851-0.3851-0.38510.53880.5388

之后也是以新的 y i ~ \tilde{y_i} yi~为目标拟合一颗回归树后计算叶子节点的区间和叶子节点的值。

NOTE:相比于回归任务,分类任务需把要最后累加的结果 f m ( x ) f_m(x) fm(x)转成概率。(其实 f m ( x ) f_m(x) fm(x)可以理解成一个得分)。具体来说:

对于采用logloss作为损失函数的情况下, p i = 1 1 + e ( − f m ( x i ) ) \large p_i=\frac{1}{1+e^{(-f_m(x_i))}} pi=1+e(fm(xi))1

对于采用指数损失作为损失函数的情况下, p i = 1 1 + e ( − 2 f m ( x i ) ) \large p_i=\frac{1}{1+e^{(-2f_m(x_i))}} pi=1+e(2fm(xi))1

当然这里的 p i p_i pi指的是正样本的概率。

这里再详细一点,比如对于上面例子,当我们拟合完第二颗树后,计算 f 2 ( x ) f_2(x) f2(x)可有下表:

x i x_i xi12345678910
f 2 ( x 1 ) f_2(x_1) f2(x1)-0.52501-0.52501-0.52501-0.52501-0.52501-0.52501-0.52501-0.525010.061360.06136

此时计算相应的概率值有:

f 2 ( x ) f_2(x) f2(x)可有下表:

x i x_i xi12345678910
p i p_i pi0.37170.37170.37170.37170.37170.37170.37170.37170.51530.5153

表中的概率为正样本的概率,即 y i = 1 y_i=1 yi=1的概率。

以上即为GBDT做二分类的相关知识。

6.4 GBDT如何做多分类?

有了前面GBDT做回归和二分类的经验之后,那么GBDT做多分类的思路也是水到渠成的了。

6.4.1 算法流程

下图是Friedman在论文中对GBDT多分类给出的伪代码

从代码上看,大致和分类时候的过程一样。最大的不同点在于多了一层内部的循环For。

这里需要注意的是:

1.对于多分类任务,GDBT的做法是采用一对多的策略(详情见文章)。
也就是说,对每个类别训练M个分类器。假设有K个类别,那么训练完之后总共有M*K颗树。

2.两层循环的顺序不能改变。也就是说,K个类别都拟合完第一颗树之后才开始拟合第二颗树,不允许先把某一个类别的M颗树学习完,再学习另外一个类别。

算法6使用的是多分类常用的损失函数:
L ( { y k , f k ( x ) } 1 K ) = − ∑ k = 1 K y k l o g p k ( x ) L\left(\{y_k,f_k(x)\}_1^K\right)=-\sum_{k=1}^Ky_klogp_k(x) L({yk,fk(x)}1K)=k=1Kyklogpk(x)

其中, p k ( x ) = e f k ( x ) ∑ l = 1 K e f l ( x ) p_k(x)=\frac{e^{f_k(x)}}{\sum_{l=1}^Ke^{f_l(x)}} pk(x)=l=1Kefl(x)efk(x)

对损失函数求一阶导有:
y ~ i k = − [ ∂ L ( { y i l , f l ( x ) } l = 1 K ) ∂ f k ( x i ) ] { f l ( x ) = f l , m − 1 ( x ) } 1 K = y i k − p k , m − 1 ( x i ) \tilde{y}_{ik}=-\left[\frac{\partial {L\left(\{y_{il},f_l(x)\}_{l=1}^K\right)}}{\partial {f_k(x_i)}}\right]_{\{f_l(x)=f_{l,m-1}(x)\}_1^K}=y_{ik}-p_{k,m-1}(x_i) y~ik=[fk(xi)L({yil,fl(x)}l=1K)]{fl(x)=fl,m1(x)}1K=yikpk,m1(xi)

叶子节点的更新值为:
c j k m = K − 1 K ∑ x i ∈ R j k m y ~ i k ∑ x i ∈ R j k m ∣ y ~ i k ∣ ( 1 − ∣ y ~ i k ∣ ) c_{jkm}=\frac{K-1}{K}\frac{\sum_{x_i \in R_{jkm}}\tilde{y}_{ik}}{\sum_{x_i \in R_{jkm}}|\tilde{y}_{ik}|(1-|\tilde{y}_{ik}|)} cjkm=KK1xiRjkmy~ik(1y~ik)xiRjkmy~ik

6.4.2 多分类实例

为了使得大家清楚地搞清楚下标的含义,我在这里再次总结下下标的定义:

①共迭代 M M M次,其中第几颗树表示为 m = m= m=
②共有 K K K类,其中第几类表示为 k = k= k=
③共有 J J J个叶子节点,其中第几个叶子节点表示为 j = j= j=

下面以一个简单的数据集说明整个GBDT的流程。

x i x_i xi612141820653140121001016554
y i y_i yi00000111112222

由于我们需要转化为3个二分类问题,先对标签做一个one-hot操作:

x i x_i xi612141820653140121001016554
y i y_i yi00000111112222
y i , 1 y_{i,1} yi,111111000000000
y i , 2 y_{i,2} yi,200000111110000
y i , 3 y_{i,3} yi,300000000001111

为了方便说明,做以下设置:

  1. 树的深度为1

  2. 学习率1

(1)步骤一:首先对所有的样本进行初始化 f k 0 ( x i ) = 0 f_{k0}(x_i)=0 fk0(xi)=0。 即所有样本属于每个类的概率都为0

注意:在Friedman论文里全部初始化为0,但在sklearn里是初始化先验概率(就是各类别的占比)

(2)步骤二:

(a) 对第一个类别 ( y i = 0 ) (y_i=0) yi=0)拟合第一颗树 ( m = 1 ) (m=1) (m=1)

x i x_i xi612141820653140121001016554
y i , 1 y_{i,1} yi,111111000000000

利用 p k , m ( x ) = e f k , m ( x ) ∑ l = 1 K e f l , m ( x ) \large p_{k,m}(x)=\frac{e^{f_{k,m}(x)}}{\sum_{l=1}^Ke^{f_{l,m}(x)}} pk,m(x)=l=1Kefl,m(x)efk,m(x),
x 1 x_1 x1举例, p 1 , 0 = 1 / ( 1 + 1 + 1 ) = 0.3333 p_{1,0}=1/(1+1+1)=0.3333 p1,0=1/1+1+1=0.3333,对于所有的 x x x计算得到下表:

x i x_i xi612141820653140121001016554
p 1 , 0 p_{1,0} p1,00.3330.3330.3330.3330.3330.3330.3330.3330.3330.3330.3330.3330.3330.333

下面计算负梯度值,以 x 1 x_1 x1为例 ( k = 1 , i = 1 ) (k=1,i=1) (k=1,i=1)
y ~ i k = y i , k − p k , m − 1 \large \tilde{y}_{ik}=y_{i,k}-p_{k,m-1} y~ik=yi,kpk,m1
=> y ~ 11 = y 1 , 1 − p 1 , 0 = 1 − 0.3333 = 0.6667 \large \tilde{y}_{11}=y_{1,1}-p_{1,0}=1-0.3333=0.6667 y~11=y1,1p1,0=10.3333=0.6667
同样地,计算其他样本可以有下表:

x i x_i xi612141820653140121001016554
y ~ i 1 \tilde{y}_{i1} y~i10.6670.6670.6670.6670.667-0.333-0.333-0.333-0.333-0.333-0.333-0.333-0.333-0.333

y ~ i 1 \tilde{y}_{i1} y~i1拟合一颗回归树,(以31为分裂点)

这里简单补充一下,为什么选择31作为分裂点。

在GBDT的建树中,可以采用如MSE,MAE等作为分裂准则来确定分裂点(启发式)。与GBDT做回归和二分类相同,本例子采用的分裂准则是MSE,具体计算过程如下。

遍历所有特征的取值,将每个特征值依次作为的分裂点,然后计算左子结点与右子结点上的MSE,寻找两者加和最小的一个。

比如,选择1作为分裂点时(x<1)

左子结点上的集合的MSE为: M S E l e f t = ( − 0.3333 − ( − 0.3333 ) ) 2 = 0 MSE_{left}=(-0.3333-(-0.3333))^2=0 MSEleft=(0.3333(0.3333))2=0

右子节点上的集合的MSE为:
M S E r i g h t = ( 0.6667 − 0.02384 ) 2 + ( 0.6667 − 0.02384 ) 2 + . . . . . + ( − 0.3333 − 0.02384 ) 2 = 3.2142 MSE_{right}=(0.6667-0.02384)^2+(0.6667-0.02384)^2+.....+(-0.3333-0.02384)^2=3.2142 MSEright=(0.66670.02384)2+(0.66670.02384)2+.....+(0.33330.02384)2=3.2142

故总的MSE为: M S E = M S E l e f t + M S E r i g h t = 0 + 3.2142 = 3.2142 MSE=MSE_{left}+MSE_{right}=0+3.2142=3.2142 MSE=MSEleft+MSEright=0+3.2142=3.2142

比如选择2作为分裂点时 ( x < 2 ) (x<2) (x<2)

M S E l e f t = 0 , M S E r i g h t = 3.07692 , M S E = 3.07692 MSE_{left}=0,MSE_{right}=3.07692,MSE=3.07692 MSEleft=0,MSEright=3.07692,MSE=3.07692

计算完后可以发现,当选择31做为分裂点时,可以得到最小的MSE, M S E = 1.42857 MSE=1.42857 MSE=1.42857

和前面例子类似,分别计算每个叶节点的值 c j k m c_{jkm} cjkm可得:
c 111 = 1.1428 c_{111}=1.1428 c111=1.1428 c 211 = − 0.9999 c{211}=-0.9999 c211=0.9999

c 111 c_{111} c111(第1次迭代时第1个类别的第1个叶节点区域)求解的详细过程如下:
根据公式
c j k m = K − 1 K ∑ x i ∈ R j k m y ~ i k ∑ x i ∈ R j k m ∣ y ~ i k ∣ ( 1 − ∣ y ~ i k ∣ ) c_{jkm}=\frac{K-1}{K}\frac{\sum_{x_i \in R_{jkm}}\tilde{y}_{ik}}{\sum_{x_i \in R_{jkm}}|\tilde{y}_{ik}|(1-|\tilde{y}_{ik}|)} cjkm=KK1xiRjkmy~ik(1y~ik)xiRjkmy~ik

c 111 = 2 3 0.667 + 0.667 + 0.667 + 0.667 + 0.667 − 0.333 − 0.333 ( 0.667 ∗ 0.333 ) ∗ 7 = 2 3 12 7 = 8 7 = 1.1428 c_{111} = \frac{2}{3}\frac{0.667+0.667+0.667+0.667+0.667-0.333-0.333}{(0.667*0.333)*7} \\ =\frac{2}{3}\frac{12}{7}=\frac{8}{7}=1.1428 c111=32(0.6670.333)70.667+0.667+0.667+0.667+0.6670.3330.333=32712=78=1.1428

在这里 0.667 0.667 0.667当作 2 3 \frac{2}{3} 32 0.333 0.333 0.333当作 1 3 \frac{1}{3} 31,且相同的数进行了归并。

同理, c 211 = − 0.999 c_{211}=-0.999 c211=0.999也是这么算的。

最后,更新 f k m ( x i ) = f k , m − 1 ( x i ) + ρ ∗ ∑ x i ∈ R j k m c j k m ∗ I ( x i ∈ R j k m ) \large f_{km}(x_i)=f_{k,m-1}(x_i)+\rho*\sum_{x_i \in R_{jkm}}c_{jkm}*I(x_i \in R_{jkm}) fkm(xi)=fk,m1(xi)+ρxiRjkmcjkmI(xiRjkm),可得下表,这里 ρ = 1 \rho=1 ρ=1

x i x_i xi612141820653140121001016554
f 1 , 1 ( x i ) f_{1,1}(x_i) f1,1(xi)1.14281.14281.14281.14281.1428-0.999-0.999-0.9991.14281.1428-0.999-0.999-0.999-0.999

(b) 对第二个类别 ( y i = 1 ) (y_i=1) yi=1)拟合第一颗树 ( m = 1 ) (m=1) (m=1)

x i x_i xi612141820653140121001016554
y i , 2 y_{i,2} yi,200000111110000

利用 p k , m ( x ) = e f k , m ( x ) ∑ l = 1 K e f l , m ( x ) p_{k,m}(x)=\frac{e^{f_{k,m}(x)}}{\sum_{l=1}^Ke^{f_{l,m}(x)}} pk,m(x)=l=1Kefl,m(x)efk,m(x)

x i x_i xi612141820653140121001016554
p 2 , 0 p_{2,0} p2,00.3330.3330.3330.3330.3330.3330.3330.3330.3330.3330.3330.3330.3330.333

下面计算负梯度值,以 x 1 x_1 x1为例 ( k = 2 , i = 1 ) (k=2,i=1) (k=2,i=1)

y ~ i k = y i , k − p k , m − 1 \tilde{y}_{ik}=y_{i,k}-p_{k,m-1} y~ik=yi,kpk,m1

=> y ~ 12 = y 1 , 2 − p 2 , 0 = 0 − 0.3333 = − 0.3333 \tilde{y}_{12}=y_{1,2}-p_{2,0}=0-0.3333=-0.3333 y~12=y1,2p2,0=00.3333=0.3333

x i x_i xi612141820653140121001016554
y ~ i 2 \tilde{y}_{i2} y~i2-0.333-0.333-0.333-0.333-0.3330.6670.6670.6670.6670.667-0.333-0.333-0.333-0.333

y ~ i 2 \tilde{y}_{i2} y~i2拟合一颗回归树,(以6为分裂点),可计算得到叶子节点:

c 121 = 2 c_{121}=2 c121=2 c 221 = − 0.2499 c_{221}=-0.2499 c221=0.2499

更新 f k m ( x i ) = f k , m − 1 ( x i ) + ρ ∗ ∑ x i ∈ R j k m c j k m ∗ I ( x i ∈ R j k m ) f_{km}(x_i)=f_{k,m-1}(x_i)+\rho*\sum_{x_i \in R_{jkm}}c_{jkm}*I(x_i \in R_{jkm}) fkm(xi)=fk,m1(xi)+ρxiRjkmcjkmI(xiRjkm),可得下表:

x i x_i xi612141820653140121001016554
f 2 , 1 ( x i ) f_{2,1}(x_i) f2,1(xi)-0.25-0.25-0.25-0.25-0.25-0.25-0.25-0.2522-0.25-0.25-0.25-0.25

(c) 然后再拟合第三个类别(类别2)的第一颗树,过程也是重复上述步骤,所以这里就不再重复了。

(3)步骤三:在拟合完所有类别的第一颗树后就开始拟合第二颗树。反复进行,直到训练了M轮。

NOTE: 经过第一轮训练,我们得到了 f 1 , 1 ( x 1 ) f_{1,1}(x_1) f1,1(x1) f 2 , 1 ( x 1 ) f_{2,1}(x_1) f2,1(x1) f 3 , 1 ( x 1 ) f_{3,1}(x_1) f3,1(x1)分别代表了样本 x 1 x_1 x1在3个类别的得分,现在我们仍然应该将其转化为概率。

参考二分类的例子,对于采用logloss作为损失函数的情况下, p k i = 1 1 + e ( − f k m ( x i ) ) p_{ki}=\frac{1}{1+e^{(-f_{km}(x_i))}} pki=1+e(fkm(xi))1,就可以将得分转化为概率,哪个概率大就属于哪类。

这些是我的猜想,具体还是要看源码,有哪位网友知道准确答案,欢迎评论告诉我

参考文献

【1】GBDT原理与Sklearn源码分析-回归篇

【2】GBDT原理与Sklearn源码分析-分类篇
前2篇分析了sklearn中GBDT的源码。

【3】机器学习算法系列(7):GBDT

【4】GBDT原理与实践-多分类篇

【5】greedy function approximation: a gradient boosting machine
这是GBDT的源论文,强烈推荐。

  • 37
    点赞
  • 90
    收藏
    觉得还不错? 一键收藏
  • 24
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 24
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值