一文读懂XGBoost(含公式推导)

1.简介

XGBoost的全称是eXtreme Gradient Boosting,它是经过优化的分布式梯度提升库,旨在高效、灵活且可移植。XGBoost是大规模并行boosting tree的工具,它是目前最快最好的开源 boosting tree工具包,比常见的工具包快10倍以上。在数据科学方面,有大量的Kaggle选手选用XGBoost进行数据挖掘比赛,是各大数据科学比赛的必杀武器;在工业界大规模数据方面,XGBoost的分布式版本有广泛的可移植性,支持在Kubernetes、Hadoop、SGE、MPI、 Dask等各个分布式环境上运行,使得它可以很好地解决工业界大规模数据的问题。本文将从XGBoost的数学原理和工程实现上进行介绍,然后介绍XGBoost的优缺点,并在最后给出面试中经常遇到的关于XGBoost的问题。

2.原理推导

2.1 从目标函数开始,生成一棵树

XGBoost和GBDT两者都是boosting方法,除了工程实现、解决问题上的一些差异外,最大的不同就是目标函数的定义。因此,本文我们从目标函数开始探究XGBoost的基本原理。

2.1.1 学习第 t棵树

XGBoost是由k个基模型组成的一个加法模型,假设我们第t次迭代要训练的树模型是ft(x),则有:
在这里插入图片描述

2.1.2 XGBoost的目标函数

损失函数可由预测值与真实值yi进行表示:
在这里插入图片描述
其中, n为样本的数量。

我们知道模型的预测精度由模型的偏差和方差共同决定,损失函数代表了模型的偏差,想要方差小则需要在目标函数中添加正则项,用于防止过拟合。所以目标函数由模型的损失函数 L 与抑制模型复杂度的正则项Ω组成,目标函数的定义如下:
在这里插入图片描述
其中,正则项是将全部t棵树的复杂度进行求和,添加到目标函数中作为正则化项,用于防止模型过度拟合。

由于XGBoost是boosting族中的算法,所以遵从前向分步加法,以第t 步的模型为例,模型对第i个样本 Xi的预测值为:
在这里插入图片描述
其中,y(t-1)是由第t-1的模型给出的预测值,是已知常数,ft(xi) 是这次需要加入的新模型的预测值。此时,目标函数就可以写成:
在这里插入图片描述
注意上式中,只有一个变量,那就是第t棵树ft(xi),其余都是已知量或可通过已知量可以计算出来的。细心的同学可能会问,上式中的第二行到第三行是如何得到的呢?这里我们将正则化项进行拆分,由于前t-1棵树的结构已经确定,因此前t-1棵树的复杂度之和可以用一个常量表示,如下所示:
在这里插入图片描述

2.1.3 泰勒公式展开

在这里插入图片描述
这个地方为什么可以这么展开 是因为我们吧y(t-1)和f(t)看为x
在这里插入图片描述

在这里插入图片描述
每一步的树模型,然后叠加起来即可。

2.1.4 定义一棵树

我们知道XGBoost的基模型不仅支持决策树,还支持线性模型,本文我们主要介绍基于决策树的目标函数。我们可以重新定义一棵决策树,其包括两个部分:

  1. L叶子结点的权重向量W ;
  2. 实例(样本)到叶子结点的映射关系q (本质是树的分支结构);
    在这里插入图片描述

2.1.5 定义树的复杂度

在这里插入图片描述

2.1.6 叶子结点归组

`

2.1.7 树结构打分

在这里插入图片描述
在这里插入图片描述

2.2 一棵树的生成细节

2.2.1 最优切分点划分算法

在这里插入图片描述
分裂后是左子树的加上右子树的,那么分裂前为啥这样 ?
这是因为每一个样本的一阶导数和二阶导数都是可以提前计算出来的,分列前只有一棵树,没有左右之分,所以里面就是所有的,就是分裂后左右的和
为什么说排序耗时?
因为每一个创建一个节点,对每一个特征都会进行排序,通过一个特征确定一个可能的最优解,并把所有的特征遍历一遍,这样仅仅是一个节点,一棵树有多个节点,都需要重复此过程
在这里插入图片描述
为了提高树的生成速度,只能从两个方面入手,一个是减少特征的选择,另一个是减少特征的划分
在这里插入图片描述
在这里插入图片描述
为什么取分位?
目的让每一个桶里面的数量相对不会有很大的差距
在这里插入图片描述

2.2.2 加权分位数缩略图

在这里插入图片描述
在这里插入图片描述
类似个平方损失,但是加了权重,权重就是二阶梯度,利用二阶梯度进行切分 为什么这么干?因为二阶梯度类似一个频率,所以相当于出现了多次,所以按照它进行切分

2.2.3 稀疏感知算法

·

3. XGBoost的工程实现

3.1 列块并行学习

在这里插入图片描述

3.2 缓存访问

列块并行学习的设计可以减少节点分裂时的计算量,在顺序访问特征值时,访问的是一块连续的内存空间,但通过特征值持有的索引(样本索引)访问样本获取一阶、二阶导数时,这个访问操作访问的内存空间并不连续,这样可能造成cpu缓存命中率低,影响算法效率。

为了解决缓存命中率低的问题,XGBoost 提出了缓存访问算法:为每个线程分配一个连续的缓存区,将需要的梯度信息存放在缓冲区中,这样就实现了非连续空间到连续空间的转换,提高了算法效率。此外适当调整块大小,也可以有助于缓存优化。

3.3 “核外”块计算

当数据量非常大时,我们不能把所有的数据都加载到内存中。那么就必须将一部分需要加载进内存的数据先存放在硬盘中,当需要时再加载进内存。这样操作具有很明显的瓶颈,即硬盘的IO操作速度远远低于内存的处理速度,肯定会存在大量等待硬盘IO操作的情况。针对这个问题作者提出了“核外”计算的优化方法。具体操作为,将数据集分成多个块存放在硬盘中,使用一个独立的线程专门从硬盘读取数据,加载到内存中,这样算法在内存中处理数据就可以和从硬盘读取数据同时进行。此外,XGBoost 还用了两种方法来降低硬盘读写的开销:

块压缩(Block Compression)。论文使用的是按列进行压缩,读取的时候用另外的线程解压。对于行索引,只保存第一个索引值,然后用16位的整数保存与该block第一个索引的差值。作者通过测试在block设置为2的16次方个样本大小时,压缩比率几乎达到26%-29%。
块分区(Block Sharding )。块分区是将特征block分区存放在不同的硬盘上,以此来增加硬盘IO的吞吐量。

4. XGBoost的优缺点

4.1 优点

在这里插入图片描述

4.2 缺点

  1. 虽然利用预排序和近似算法可以降低寻找最佳分裂点的计算量,但在节点分裂过程中仍需要遍历数据集;
  2. 预排序过程的空间复杂度过高,不仅需要存储特征值,还需要存储特征对应样本的梯度统计值的索引,相当于消耗了两倍的内存。

5.常见的一些问题

5.1 XGBoost与GBDT的联系和区别有哪些?

(1)GBDT是机器学习算法,XGBoost是该算法的工程实现。

(2)正则项:在使用CART作为基分类器时,XGBoost显式地加入了正则项来控制模型的复杂度,有利于防止过拟合,从而提高模型的泛化能力。

(3)导数信息:GBDT在模型训练时只使用了代价函数的一阶导数信息,XGBoost对代价函数进行二阶泰勒展开,可以同时使用一阶和二阶导数。

(4)基分类器:传统的GBDT采用CART作为基分类器,XGBoost支持多种类型的基分类器,比如线性分类器。

(5)子采样:传统的GBDT在每轮迭代时使用全部的数据,XGBoost则采用了与随机森林相似的策略,支持对数据进行采样。

(6)缺失值处理:传统GBDT没有设计对缺失值进行处理,XGBoost能够自动学习出缺失值的处理策略。

(7)并行化:传统GBDT没有进行并行化设计,注意不是tree维度的并行,而是特征维度的并行。XGBoost预先将每个特征按特征值排好序,存储为块结构,分裂结点时可以采用多线程并行查找每个特征的最佳分割点,极大提升训练速度。

6.2 为什么XGBoost泰勒二阶展开后效果就比较好呢?

(1)从为什么会想到引入泰勒二阶的角度来说(可扩展性):XGBoost官网上有说,当目标函数是MSE时,展开是一阶项(残差)+二阶项的形式,而其它目标函数,如logistic loss的展开式就没有这样的形式。为了能有个统一的形式,所以采用泰勒展开来得到二阶项,这样就能把MSE推导的那套直接复用到其它自定义损失函数上。简短来说,就是为了统一损失函数求导的形式以支持自定义损失函数。至于为什么要在形式上与MSE统一?是因为MSE是最普遍且常用的损失函数,而且求导最容易,求导后的形式也十分简单。所以理论上只要损失函数形式与MSE统一了,那就只用推导MSE就好了。

(2)从二阶导本身的性质,也就是从为什么要用泰勒二阶展开的角度来说(精准性):二阶信息本身就能让梯度收敛更快更准确。这一点在优化算法里的牛顿法中已经证实。可以简单认为一阶导指引梯度方向,二阶导指引梯度方向如何变化。简单来说,相对于GBDT的一阶泰勒展开,XGBoost采用二阶泰勒展开,可以更为精准的逼近真实的损失函数。

6.3 XGBoost对缺失值是怎么处理的?

在普通的GBDT策略中,对于缺失值的方法是先手动对缺失值进行填充,然后当做有值的特征进行处理,但是这样人工填充不一定准确,而且没有什么理论依据。而XGBoost采取的策略是先不处理那些值缺失的样本,采用那些有值的样本搞出分裂点,在遍历每个有值特征的时候,尝试将缺失样本划入左子树和右子树,选择使损失最优的值作为分裂点。
根据作者 Tianqi Chen 在论文中章节 3.4 的介绍,xgboost 把缺失值当做稀疏矩阵来对待,本身的在节点分裂时不考虑的缺失值的数值。缺失值数据会被分到左子树和右子树分别计算损失,选择较优的那一个。如果训练中没有数据缺失,预测时出现了数据缺失,那么默认被分类到右子树。

6.4 XGBoost为什么可以并行训练?

(1)XGBoost的并行,并不是说每棵树可以并行训练,XGBoost本质上仍然采用boosting思想,每棵树训练前需要等前面的树训练完成才能开始训练。

(2)XGBoost的并行,指的是特征维度的并行:在训练之前,每个特征按特征值对样本进行预排序,并存储为Block结构,在后面查找特征分割点时可以重复使用,而且特征已经被存储为一个个block结构,那么在寻找每个特征的最佳分割点时,可以利用多线程对每个block并行计算。

6.5 特征重要度的计算

XGB 内置的三种特征重要性计算方法

  • weight
    就是在子树模型分裂时,用到的特征次数。
  • gain
    这里是指,节点分裂时,该特征带来信息增益(目标函数)优化的平均值。
  • cover
    cover 形象来说,就是树模型在分裂时,特征下的叶子结点涵盖的样本数除以特征用来分裂的次数。分裂越靠近根部,cover 值越大。
  • 14
    点赞
  • 81
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
XGBoost,全名为eXtreme Gradient Boosting,是一种基于决策树的集成学习算法。它结合了Gradient Boosting算法和决策树算法的优点,在许多机器学习竞赛中取得了显著的成绩。 下面是XGBoost的数学推导XGBoost的目标函数为: $$ Obj = \sum_{i=1}^{n}l(y_i, \hat{y_i}) + \sum_{k=1}^{K}\Omega(f_k) $$ 其中,$n$为样本数,$y_i$为第$i$个样本的真实值,$\hat{y_i}$为第$i$个样本的预测值,$l(y_i, \hat{y_i})$为损失函数,$K$为树的数量,$\Omega(f_k)$为正则化项。正则化项的目的是防止过拟合,它包括树的叶子节点数量和叶子节点分数的二阶范数。 XGBoost使用Gradient Boosting算法进行训练,Gradient Boosting算法的核心思想是迭代地训练一组弱学习器,将它们组合成一个强学习器。每一次迭代都会添加一个新的树模型,它的预测值是前面树模型的预测值和当前树模型的预测值的加权和。 因此,我们需要定义一个损失函数$L$,它是所有树模型预测值和真实值之间的差距的加权和,即: $$ L = \sum_{i=1}^{n}l(y_i, \hat{y_i}) + \sum_{k=1}^{K}\Omega(f_k) $$ 其中,$\hat{y_i}$为所有树模型预测值的加权和。 为了最小化损失函数$L$,我们需要对每个树模型的预测值进行求解。我们可以使用梯度下降算法来优化损失函数,其中梯度是损失函数关于当前模型的导数。 对于第$k$个树模型,我们需要求解其预测值$f_k(x_i)$,它可以表示为: $$ f_k(x_i)=f_{k-1}(x_i)+h_k(x_i) $$ 其中,$f_{k-1}(x_i)$为前$k-1$个树模型的预测值,$h_k(x_i)$为第$k$个树模型的预测值。 我们可以使用泰勒展开式来近似$h_k(x_i)$: $$ h_k(x_i) = \sum_{j=1}^{J}w_{j,k} I(x_i\in R_{j,k}) $$ 其中,$w_{j,k}$为第$j$个叶子节点的分数,$R_{j,k}$为第$j$个叶子节点的区域。 我们需要对每个叶子节点的分数进行求解,可以使用最小二乘法来求解。对于第$j$个叶子节点,我们需要求解其分数$w_{j,k}$,它可以表示为: $$ w_{j,k}=-\frac{\sum_{x_i\in R_{j,k}}g_i}{\sum_{x_i\in R_{j,k}}h_i+\lambda} $$ 其中,$g_i$为损失函数关于预测值的一阶导数,$h_i$为损失函数关于预测值的二阶导数,$\lambda$为正则化参数。 最后,我们可以使用梯度下降算法来更新每个树模型的预测值。对于第$k$个树模型,我们需要将其预测值$f_k$更新为: $$ f_k(x_i)=f_{k-1}(x_i)+\eta\sum_{j=1}^{J}w_{j,k} I(x_i\in R_{j,k}) $$ 其中,$\eta$为学习率,它控制每个树模型的贡献大小。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值