树模型奠基性论文解读| GBM: Gradient Boosting Machine

今天起我会开一个关于机器学习基础知识的分享专题,这篇文章是第一篇。今天分享一篇Boosting一类算法的早期核心论文解读,是GBDT等算法的奠基性文章。很多同学都读过xgboost和lightgbm的论文,却很可能忽略了这篇发表在2001年、引用量高达12132的核心文章:Greedy Function Approximation: A Gradient Boosting Machine [1]。

1.背景

函数估计(Function Estimation/Approximation)是对函数空间(Function Space)进行数值优化,而不是对参数空间(Paramter Space)进行优化。这篇论文[1]提出的Gradient Boosting Machine算法将stagewise additive expansions(分步加和扩展)和steepest-descent minimization(最速下降极小化,也就是梯度下降法)结合起来实现对函数空间的数值优化,可以适用于回归和分类问题,具有完整性好,鲁棒性强,解释性好等优点。

2.动因

为了理解作者的动因,我们首先从我们熟悉的函数最小值优化问题谈起:

对于该优化问题,可以使用Steepest Gradient Descent,梯度下降法进行求解。这个算法大致过程如下:

  • 给定一个起始点

  • 分别作如下迭代:

  • , 其中 表示 上的梯度值, 是步长,是通过在 方向线性搜索来动态调整的。

  • 一直到 足够小,或者 足够小,即函数收敛。

以上过程就是梯度下降法,可以理解为整个过程就是小步走,每小步都往函数值下降最快的方向走。这样的寻优过程得到的结果可以表示为加和形式,即:

我们可以从上面得到启发,这样的过程是否可以推广至函数空间求函数估计问题?求解函数估计问题本身也是一个寻优的过程,只不过我们寻找的结果是最优函数估计,而不是最优点估计。优化的目标通常通过最小化损失函数来定义:

类似上面的梯度下降法,我们可以依次迭代得到 ,可以类比成上述的 ,则最优的 , 每次迭代求梯度:

其中, 是负梯度, 是每次迭代需要学习的弱学习器(基函数),用于拟合负梯度 ,即 。此处 前的权重为1,通常会给每次学习的弱学习器分配一个权重 ,即, ,从 最终的组成来看, 衡量了该弱学习器在所有弱学习器中的重要性。

我们发现上述求解是函数对函数求梯度,由于 损失函数对 函数的梯度是关于 的函数,而 只能观测到在离散的训练样本上的取值,因此 的梯度也只能观测到在训练样本上的取值。为了泛化到测试样本,我们需要对训练集上的离散梯度值进行曲线拟合,得到梯度的近似。

我们首先将函数 表示成由所有样本点在该函数上的离散值构成。即:

这是一个N维向量,可以计算:

上式是函数对向量的求导,得到的也是一个梯度向量。这里求导过程,首先是求 ,即每个样本点的F函数值,然后再根据具体的损失函数,来计算损失函数对 函数值的导数,而不是对 的导数。

但是, 只是描述了 在每个训练样本点上的值,并不足以表达 ,也就是说只是表达了训练集,不能泛化到其它数据上。重点在于,我们可以通过「函数拟合」的方法从 中构造出 , 这是一个我们非常熟悉的问题,例如回归曲线拟合问题。这个问题可以当作一个子问题求解,只要损失函数可导即可。这样我们就近似得到了函数对函数的求导结果。

上述过程归纳起来,也就是加和扩展(additive expansion)和梯度下降(steepest-descent minimization)的结合。表示成如下形式:

其中 是初始估计, 是用于拟合负梯度的弱学习器, 是最优步长,

3.主要思想

了解了动因之后,我们从一般化函数估计问题谈起。首先仍然从介绍函数估计开始,函数估计的目标是得到对映射函数 (从x映射到y)的估计 ,使得在所有训练样本 的联合分布上,最小化期望损失函数

上式是求联合分布,等于对 在x上求边缘分布。

我们需要在函数空间进行数值优化。在函数空间,为了表示一个函数 ,理想状况下有无数个点,我们可以使用“非参数方法”来求解上述问题,非参数方法可以理解为,我们并没有指定 的形式,任意的 都有可能。

根据前文(参见动因一节),我们需要解:

是初始估计, 是负梯度的拟合函数, 梯度。 是最优步长。

其中:

假设可以交换微分和积分的顺序,则:

乘子 沿着步长方向 进行线性搜索, 代表步长:

然而我们面对的情况是只能用有限的数据集 表示x,y的联合分布的时候,上述方法就有点行不通了,因为 不能被数据集上的每个点 正确估计,即使可以,也只是针对训练集,不能泛化到其它任意点

因此我们需要修改解的形式。可以通过限制 为一系列带参数的函数集合 是一个有限的参数集合,即首先确定了 的形式,然后再在参数空间中搜索 的参数值,实际上这是将函数估计问题转化成了参数估计问题。

本文也采用类似的思想,使用“分步加和扩展(Stagewise Additive Expansion)”求解上述函数估计目标。即,我们定义 的形式为:

其中, 可以理解为基函数, 是基函数的参数。对于GBDT而言, 为CART树,而 对应着这棵小的CART树的结构, 可以认为是基函数的权重。即,我们使用的是基函数乘上某个权重来拟合负梯度。该权重通常为1。

则可将上述优化问题转化为:

上述问题仍然是难以求解的。难以求解的原因是,我们要一次性同时找出所有的 (注意看min下标),也就是找出所有基函数 的一个最优序列,每次有新的分类器加入,还需要调整之前的分类器。

一种贪心算法的思想是采用「Greedy Stagewise」方法,对 ,

然后更新:

可以看出这是一种分步加和扩展的方式(注意min的下标),即每次只训练一个弱分类器,当新分类器被加入模型的时候,不调整原来得到的分类器 , 实际上是一种贪心策略。

对于给定的损失函数 和基分类器 。上式求解比较困难。假设,在 确定了的前提下,并且 的某个成员,同时也作为步长的方向,那么 可以看作是对 (1)的最优贪心步长(greedy step),也可以认为是(3)中的最深梯度下降步长。

我们构建样本函数值 的负梯度如下:

因此N维空间 上的函数负梯度可以表示为 .然而这只是对训练集样本而言,不能泛化到其它样本上。也就是说,我们原本的目标是需要损失函数 函数进行求梯度(参考动因一节),函数对函数的梯度难以求解,现在通过所有样本在 处的「取值的梯度」集合 来近似替代 函数的梯度。然而这里只是对训练集进行求值替代,为了能够泛化到其他数据集,我们需要「根据训练集在 取值的梯度集合拟合出 的梯度」,使得其能够泛化到其它样本上。

具体而言,我们需要从 中选择某一个 ,使得 最接近。这是一个典型的函数拟合问题,可以使用平方误差损失在样本上进行拟合:

注意上述平方误差损失只是用来拟合负梯度用的,和前面的 是完全不一样的两个东西。对于GBDT而言,也就是「使用一棵新的回归树CART」「拟合」损失函数 「负梯度」

找到负梯度拟合函数 后,就可以使用线性搜索方法在负梯度方向上进行搜索乘子

乍看 非常像,但是二者是有略微区别的。我们一开始设想的是, 是我们在用基函数拟合负梯度时,在负梯度方向上的最优步长;然而我们实际操作的时候为了能够泛化到测试集,用平方误差损失来拟合,导致得到的 并不一定能保证对训练集数据而言是最优步长。因此,重新使用线性搜索方法,在训练集上求最优步长。当然,这一步似乎也没什么必要,影响应该不算太大。

然后更新模型:

上述实际上是在公式(5)中加入了拟合约束,即,使用 拟合负梯度 . 这可以将(5)中的函数最小化问题转变为(6)中的最小二乘估计问题,且该二乘估计只有一个参数,很容易求解。因此只要存在能够使用最小二乘估计求解(6)中的负梯度拟合问题的基函数 ,那么就可以使用前向加和模型(forward stagewise additive model) 来求解复杂的损失函数优化问题。得到如下的算法:

  • 1.

  • 2.

  • 3.

  • 4.

  • 5.

  • 6.

解释:

  • 1.初始化,对样本点标签在损失函数上进行线性搜索得到初始分类器。

  • 2.M个分类器,迭代M次:

  • 3.每次求得损失函数在所有训练样本上对分类器F的梯度。

  • 4.使用定制的h函数对梯度进行平方误差拟合。

  • 5.在拟合得到的梯度上进行线性搜索,得到步长。

  • 6.使用分步加和模型来更新分类器

上述第四步中实际上还可以使用其他拟合标准进行求解,最小二乘法是其中一种简单又自然的选择。

我们要注意上述中的 和(4)中的 是不一样的,只不过在某些特定的损失函数中, 的某种形式可以等价于 (例如当L也是最小平方误差时, )。不过,个人认为这里的 有点多余,直接让新的分类器来拟合负梯度, 即可。

4.主要工作

本部分介绍作者使用不同的损失函数和基函数来运用加和模型和梯度下降策略得到的算法。

4.1 算法

Least-squares Regression

此时损失函数为: , 上述算法的第三步此时为: 。则第四步直接使用 拟合当前数据的残差即可,第五步线性搜索直接令 即可,其中 就是第四步拟合的结果。 的原因如下:

第一个式子是当前的优化求解目标,第二个式子是算法第四步中拟合负梯度的目标,可以看出两个优化目标完全一致,对负梯度的拟合结果得到的 ,p直接就是 了,不需要第五步中的线性搜索。

Least absolute Deviation Regression

此时损失函数为

 则,

在第四步中,使用 拟合 。在第五步中线性搜索为:

线性搜索

Regression trees

考虑基学习器为 的回归树。

公式第6步更新策略如下:

是第m次迭代时,回归树叶节点划分出来的区域。这棵回归树被用来在第四步中拟合负梯度 ,即每次迭代使用回归树来拟合负梯度。

是相应的最小二乘估计拟合负梯度得到的系数:

的线性搜索采用公式第五步进行求解。

则更新策略简写为:

则优化问题转化成:

由于回归树划分的区域是不相交的,即如果 ,则

4.2 正则化

在训练集上训练模型来减少期望损失,通常会产生过拟合的现象。正则化通过约束训练过程来减轻过拟合。对于加和扩展模型,一种正则化思想是控制模型 的数量 , 可以使用交叉验证来选择。另一种正则化思想是使用收缩因子来控制拟合过程,即学习速率。如下:

这两者存在一定的关系,减少学习速率意味着收敛速度降低,需要更多次迭代,则会增加模型的数量M。 实际上是一种权衡,作者通过模拟学习simulation study的过程来解释。

第一幅图使用不同的算法,每张图中不同曲线代表该算法在不同的学习速率下,预测错误率随迭代次数(M)的增加的变化情况。第二幅图同样给出了v和M的关系,可以看出,当学习速率较小时,意味着更多次迭代M,则相应的错误率也越低。

总结

这篇文章介绍了GBDT等树模型的核心原理论文GBM,核心的点在于怎么从参数估计类比到函数估计,拟合负梯度的含义,贪心算法求解等,期望对加深树模型的理解有所帮助。欢迎交流。

参考

Greedy Function Approximation: A Gradient Boosting Machine

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值