『 论文阅读』LightGBM原理-LightGBM: A Highly Efficient Gradient Boosting Decision Tree

提出了一种新型GBDT算法——LightGBM,通过Gradient-based One-Side Sampling (GOSS) 和 Exclusive Feature Bundling (EFB)两种创新技术,解决了特征维度高和数据量巨大时GBDT的效率与可扩展性问题。GOSS通过保留梯度较大的实例,仅在梯度小的实例上进行随机采样,从而有效减少数据量;EFB则通过捆绑互斥特征来减少特征数量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

17年8月LightGBM就开源了,那时候就开始尝试上手,不过更多还是在调参层面,在作者12月论文发表之后看了却一直没有总结,这几天想着一定要翻译下,自己也梳理下GBDT相关的算法。

Abstract

Gradient Boosting Decision Tree (GBDT)非常流行却鲜有实现,只有像XGBoost和pGBRT。当特征维度较高和数据量巨大的时候,其实现中仍然存在效率和可扩展性的问题。一个主要原因就是对于每一个特征的每一个分裂点,都需要遍历全部数据计算信息增益,这一过程非常耗时。针对这一问题,本文提出两种新方法:Gradient-based One-Side Sampling (GOSS) 和Exclusive Feature Bundling (EFB)基于梯度的one-side采样互斥的特征捆绑)。在GOSS中,我们排除了重要的比例-具有小梯度的实例,只用剩下的来估计信息增益,我们证明,这些梯度大的实例在计算信息增益中扮演重要角色,GOSS可以用更小的数据量对信息增益进行相当准确的估计(疑问:怎么证明,数学 or 实验?)。对于EFB,我们捆绑互斥的特征(什么是互斥特征:例如特征间很少同时非零。),来降低特征的个数。我们证明完美地捆绑互斥特征是NP难的,但贪心算法能够实现相当好的逼近率,因此我们能够在不损害分割点准确率许多,有效减少特征的数量。(牺牲一点分割准确率降低特征数量),这一算法命名为LightGBM。在多个公共数据集实验证明,LightGBM加速了传统GBDT训练过程20倍以上,同时达到了几乎相同的精度。

1. Introduction

GBDT因为其的有效性、准确性、可解释性,成为了广泛使用的机器学习算法。GBDT在许多机器学习任务上取得了最好的效果( state-of-the-art),例如多分类,点击预测,排序。但最近几年随着大数据的爆发(特征量和数据量),GBDT面临平衡准确率和效率的调整。

GBDT缺点:对于每一个特征的每一个分裂点,都需要遍历全部数据来计算信息增益。因此,其计算复杂度将受到特征数量和数据量双重影响,造成处理大数据时十分耗时。

解决这个问题的直接方法就是减少特征量和数据量而且不影响精确度,有部分工作根据数据权重采样来加速booisting的过程,但由于gbdt没有样本权重不能应用。而本文提出两种新方法实现此目标。

Gradient-based One-Side Sampling (GOSS):GBDT虽然没有数据权重,但每个数据实例有不同的梯度,根据计算信息增益的定义,梯度大的实例对信息增益有更大的影响,因此在下采样时,我们应该尽量保留梯度大的样本(预先设定阈值,或者最高百分位间),随机去掉梯度小的样本。我们证明此措施在相同的采样率下比随机采样获得更准确的结果,尤其是在信息增益范围较大时。

Exclusive Feature Bundling (EFB):通常真是应用中,虽然特征量比较多,但是由于特征空间十分稀疏,是否可以设计一种无损的方法来减少有效特征呢?特别在稀疏特征空间上,许多特征几乎是互斥的(例如许多特征不会同时为非零值,像one-hot),我们可以捆绑互斥的特征。最后,我们将捆绑问题归约到图着色问题,通过贪心算法求得近似解。

2. Preliminaries

2.1 GBDT and Its Complexity Analysis

GBDT是一种集成模型的决策树,顺序训练决策树。每次迭代中,GBDT通过拟合负梯度(残差)来学到决策树。

学习决策树是GBDT主要的时间花销,而学习决策树中找到最优切分点最消耗时间。广泛采用的预排序算法来找到最优切分点,这种方法会列举预排序中所有可能的切分点。这种算法虽然能够找到最优的切分点,但对于训练速度和内存消耗上都效率低。另一种流行算法是直方图算法(histogram-based algorithm)。直方图算法并不通过特征排序找到最优的切分点,而是将连续的特征值抽象成离散的分箱,并使用这些分箱在训练过程中构建特征直方图,这种算法更加训练速度和内存消耗上都更加高效,lightGBM使用此种算法。

histogram-based算法通过直方图寻找最优切分点,其建直方图消耗O(#data * #feature),寻找最优切分点消耗O(#bin * # feature),而#bin的数量远小于#data,所以建直方图为主要时间消耗。如果能够减少数据量或特征量,那么还能够够加速GBDT的训练。

2.2 Related Work

GBDT有许多实现,如XGBoost,PGBRT,Scikit-learn,gbm in R。Scikit-learn和gbm in R实现都用了预排序,pGBRT使用了直方图算法那,XGBoost支持预排序和直方图算法,由于XGBoost胜过其他算法,我们用它作为baseline。

为了减小训练数据集,通常做法是下采样。例如过滤掉权重小于阈值的数据。SGB每次迭代中用随机子集训练弱学习器。或者采样率基于训练过程动态调整。除了基于AdaBoost的SGB不能直接应用于GBDT,因为GBDT中没有原始的权重。虽然SGB也能间接应用于GBDT,单往往会影响精度。

同样,过滤掉弱特征(什么是弱特征)来减少特征量。通常用主成分分析或者投影法。当然,这些方法依赖于一个假设-特征包含高度的冗余,但实际中往往不是。(设计特征来自于其独特的贡献,移除任何一维度都可以某种程度上影响精度)。

实际中大规模的数据集通常都是非常稀疏的,使用预排序算法的GBDT能够通过无视为0的特征来降低训练时间消耗。然后直方图算法没有优化稀疏的方案。因为直方图算法无论特征值是否为0,都需要为每个数据检索特征区间值。如果基于直方图的GBDT能够有效利用稀疏特征将是最优。

下图是连个算法的对比:

3. Gradient-based One-Side Sampling

GOSS是一种在减少数据量和保证精度上平衡的算法。

3.1 Algorithm Description

AdaBoost中,样本权重是数据实例重要性的指标。然而在GBDT中没有原始样本权重,不能应用权重采样。幸运的事,我们观察到GBDT中每个数据都有不同的梯度值,对采样十分有用,即实例的梯度小,实例训练误差也就较小,已经被学习得很好了,直接想法就是丢掉这部分梯度小的数据。然而这样做会改变数据的分布,将会影响训练的模型的精确度,为了避免此问题,我们提出了GOSS。

GOSS保留所有的梯度较大的实例,在梯度小的实例上使用随机采样。为了抵消对数据分布的影响,计算信息增益的时候,GOSS对小梯度的数据引入常量乘数。GOSS首先根据数据的梯度绝对值排序,选取top a个实例。然后在剩余的数据中随机采样b个实例。接着计算信息增益时为采样出的小梯度数据乘以(1-a)/b,这样算法就会更关注训练不足的实例,而不会过多改变原数据集的分布。

3.2 Theoretical Analysis

GBDT使用决策树,来学习获得一个将输入空间映射到梯度空间的函数。假设训练集有n个实例 x 1 , . . . , x n {x_1,...,x_n} x1,...,xn,特征维度为s。每次梯度迭时,模型数据变量的损失函数的负梯度方向表示为 g 1 , . . . , g n g_1,...,g_n g1,...,gn,决策树通过最优切分点(最大信息增益点)将数据分到各个节点。GBDT通过分割后的方差衡量信息增益。

定义3.1:O表示某个固定节点的训练集,分割特征j的分割点d定义为:
V j ∣ O ( d ) = 1 n O ( ( ∑ { x i ∈ O : x i j ≤ d } g i ) 2 n l ∣ O j ( d ) + ( ∑ { x i ∈ O : x i j > d } g i ) 2 n r ∣ O j ( d ) ) V_{j|O}(d) = \frac{1}{n_O} ( \frac{ ( \sum_{ \{x_i \in O: x_{ij} \le d \} } g_i )^2 }{n^j_{l|O}(d)} + \frac{ ( \sum_{ \{x_i \in O: x_{ij} > d \} } g_i )^2 }{n^j_{r|O}(d)} ) VjO(d)=nO1(nlOj(d)({xiO:xijd}gi)2+nrOj(d)({xiO:xij>d}gi)2)
其中, n O = ∑ I [ x i ∈ O ] , n l ∣ O j = ∑ I [ x i ∈ O : x i ≥ d ] , n r ∣ O j = ∑ I [ x i ∈ O : x i > d ] n_O = \sum I[x_i \in O], n^j_{l|O} = \sum I[x_i \in O: x_i \ge d ], n^j_{r|O} = \sum I[x_i \in O: x_i > d ] nO=I[xiO],nlOj=I[xiO:xid],nrOj=I[xiO:xi>d].

遍历每个特征的每个分裂点,找到$d^*_j = argmax_d V_j(d) $ 并计算最大的信息增益 V j ( d j ∗ ) _Vj(d^*_j) Vj(dj),然后,将数据根据特征 j ∗ j^* j的分裂点 d j ∗ d^*_j dj将数据分到左右子节点。

在GOSS中,

  1. 首先根据数据的梯度将训练降序排序。

  2. 保留top a个数据实例,作为数据子集A。

  3. 对于剩下的数据的实例,随机采样获得大小为b的数据子集B。

  4. 最后我们通过以下方程估计信息增益:

V ~ j ( d ) = 1 n ( ( ∑ x i ∈ A : x i j ≤ d g i + 1 − a b ∑ x i ∈ B : x i j ≤ d g i ) 2 n j l ( d ) + ( ∑ x i ∈ A : x i j > d g i + 1 − a b ∑ x i ∈ B : x i j > d g i ) 2 n r j ( d ) ) (1) \tilde{V}_j (d) = \frac{1}{n} ( \frac{ ( \sum_{ {x_i \in A: x_{ij} \le d } } g_i + \frac{1-a}{b}\sum_{ {x_i \in B: x_{ij} \le d } } g_i )^2 }{n^j{l}(d)} + \frac{ ( \sum_{ {x_i \in A: x{ij} > d } } g_i + \frac{1-a}{b}\sum_{ {x_i \in B: x{ij} > d } } g_i )^2 }{n^j_{r}(d)} ) \tag{1} V~j(d)=n1(njl(d)(xiA:xijdgi+b1axiB:xijdgi)2+nrj(d)(xiA:xij>dgi+b1axiB:xij>dgi)2)(1)
此处GOSS通过较小的数据集估计信息增益 V ~ j ( d ) \tilde{V}{j}(d) V~j(d),将大大地减小计算量。更重要的的,我们接下来理论表明GOSS不会丢失许多训练精度,胜过随机采样,理论的证明在附加材料。

Theorem 3.2:我们定义GOSS近似误差为 ε ( d ) = ∣ V ~ j ( d ) − V j ( d ) ∣ \varepsilon(d) = |\tilde{V}_j(d) - V_j(d) | ε(d)=V~j(d)Vj(d) g ˉ l j ( d ) = ∑ x i ∈ ( A ∪ A c ) l ∣ g i ∣ n l j ( d ) \bar{g}_l^j(d)=\frac{\sum_{x_i \in (A \cup A^c)_l} |g_i|}{n_l^j(d)} gˉlj(d)=nlj(d)xi(AAc)lgi,$ \bar{g}l^j(d)=\frac{\sum{x_i \in (A \cup A^c)_r} |g_i|}{n_r^j(d)}$,概率至少是 1 − δ 1- \delta 1δ,有:
ε ( d ) ≤ C a , b 2 ln ⁡ ( 1 / δ ) ∗ max ⁡ { 1 n l j ( d ) , 1 n r j ( d ) } + 2 ∗ D ∗ C a , b ln ⁡ ( 1 / δ ) n (2) \varepsilon(d) \le C_{a, b}^2 \ln (1/\delta) * \max\{ \frac{1}{n_l^j(d)} , \frac{1}{n_r^j(d)} \} + 2*D*C_{a,b} \sqrt{ \frac{\ln(1/\delta)}{n}} \tag{2} ε(d)Ca,b2ln(1/δ)max{nlj(d)1,nrj(d)1}+2DCa,bnln(1/δ) (2)
其中 C a , b = 1 − a b max ⁡ x ∈ A c ∣ g i ∣ , D = max ⁡ ( g ˉ l j ( d ) , g ˉ r j ( d ) ) C_{a,b}=\frac{1-a}{\sqrt{b}} \max_{x \in A^c}{|g_i|}, D=\max(\bar{g}_l^j(d), \bar{g}_r^j(d)) Ca,b=b 1amaxxAcgi,D=max(gˉlj(d),gˉrj(d))

根据理论3.2,我们得出以下结论:

  1. GOSS的渐近逼近比率$O(\frac{1}{n_l^j(d)}+ \frac{1}{n_r^j(d)} + \frac{1}{\sqrt{n}}) 。 如 果 数 据 分 割 不 是 极 不 平 衡 ( 例 如 。如果数据分割不是极不平衡(例如 n_l^j(d) \ge O(\sqrt{n}) 和 和 n_r^j \ge O(\sqrt{n}) ) , 那 么 不 等 式 ( 2 ) 中 近 似 误 差 将 由 第 二 项 主 导 , 当 n 趋 于 无 穷 ( 数 据 量 很 大 ) 时 ),那么不等式(2)中近似误差将由第二项主导,当n趋于无穷(数据量很大)时 (2)nO(\sqrt{n})$将趋于0,即数据量越大,误差越小,精度越高。
  2. 随机采样是GOSS在a=0的一种情况。多数情况下,GOSS性能优于随机采样,即以下情况: C 0 , β > C a , β − a C_{0, \beta} > C_{a, \beta-a} C0,β>Ca,βa,即 α a β > 1 − a β − a \frac{\alpha_a}{\sqrt{\beta}} > \frac{1-a}{\sqrt{\beta-a}} β αa>βa 1a,其中 α a = max ⁡ x i ∈ A ∪ A c ∣ g i ∣ / max ⁡ x i ∈ A c ∣ g i ∣ \alpha_a = \max_{x_i \in A \cup A^c} |g_i| / \max_{x_i \in A^c} |g_i| αa=maxxiAAcgi/maxxiAcgi

下面分析GOSS的泛化性。考虑GOSS泛化误差 ε g e n G O S S ( d ) = ∣ V ~ j ( d ) − V ∗ ( d ) ∣ \varepsilon_{gen}^{GOSS}(d) = |\tilde{V}_j(d) - V_*(d)| εgenGOSS(d)=V~j(d)V(d),这是GOSS抽样的的实例计算出的方差增益与实际样本方差增益之间的差距。变换为, ε g e n G O S S ( d ) = ∣ V ~ j ( d ) − V j ( d ) ∣ + ∣ V j ( d ) − V ∗ ( d ) ∣ ≜ ε G O S S ( d ) + ε g e n ( d ) \varepsilon_{gen}^{GOSS}(d) = |\tilde{V}_j(d) - V_j(d)|+ |V_j(d) - V_*(d)| \triangleq \varepsilon_{GOSS}(d)+ \varepsilon_{gen}(d) εgenGOSS(d)=V~j(d)Vj(d)+Vj(d)V(d)εGOSS(d)+εgen(d),因此,在GOSS准确的情况下,GOSS泛化误差近似于全量的真实数据。另一方面,采样将增加基学习器的多样性(因为每次采样获得的数据可能会不同),这将提高泛化性。

4 Exclusive Feature Bundling

这一章介绍如何有效减少特征的数量

高位的数据通常是稀疏的,这种稀疏性启发我们设计一种无损地方法来减少特征的维度。特别的,稀疏特征空间中,许多特征是互斥的,例如他们从不同时为非零值。我们可以绑定互斥的特征为单一特征,通过仔细设计特征臊面算法,我们从特征捆绑中构建了与单个特征相同的特征直方图。这种方式的间直方图时间复杂度从O(#data * #feature)降到O(#data * #bundle),由于#bundle << # feature,我们能够极大地加速GBDT的训练过程而且损失精度。

有两个问题:

  1. 怎么判定那些特征应该绑在一起(build bundled)?

  2. 怎么把特征绑为一个(merge feature)?

4.1 bundle(什么样的特征被绑定)?

**理论 4.1:**将特征分割为较小量的互斥特征群是NP难的。

证明:将图着色问题归约为此问题,而图着色是NP难的,所以此问题就是NP难的。

给定图着色实例G=(V, E)。以G的关联矩阵的每一行为特征,得到我们问题的一个实例有|V|个特征。 很容易看到,在我们的问题中,一个独特的特征包与一组具有相同颜色的顶点相对应,反之亦然。

理论4.1说明多项式时间中求解这个NP难问题不可行。为了寻找好的近似算法,我们将最优捆绑问题归结为图着色问题,如果两个特征之间不是相互排斥,那么我们用一个边将他们连接,然后用合理的贪婪算法(具有恒定的近似比)用于图着色来做特征捆绑。 此外,我们注意到通常有很多特征,尽管不是100%相互排斥的,也很少同时取非零值。 如果我们的算法可以允许一小部分的冲突,我们可以得到更少的特征包,进一步提高计算效率。经过简单的计算,随机污染小部分特征值将影响精度最多 O ( [ ( 1 − γ ) n ] − 2 / 3 ) O([(1 - \gamma)n ]^ {-2/3}) O([(1γ)n]2/3) γ \gamma γ是每个绑定中的最大冲突比率,当其相对较小时,能够完成精度和效率之间的平衡。

**算法3:**基于上面的讨论,我们设计了算法3,伪代码见下图,具体算法:

  1. 建立一个图,每个点代表特征,每个边有权重,其权重和特征之间总体冲突相关。
  2. 按照降序排列图中的度数来排序特征。
  3. 检查排序之后的每个特征,对他进行特征绑定或者建立新的绑定使得操作之后的总体冲突最小。

算法3的时间复杂度是O(# f e a t u r e 2 feature^2 feature2),训练之前只处理一次,其时间复杂度在特征不是特别多的情况下是可以接受的,但难以应对百万维的特征。为了继续提高效率,我们提出了一个更加高效的无图的排序策略:将特征按照非零值个数排序,这和使用图节点的度排序相似,因为更多的非零值通常会导致冲突,新算法在算法3基础上改变了排序策略。

4.2 merging features(特征合并)

如何合并同一个bundle的特征来降低训练时间复杂度。关键在于原始特征值可以从bundle中区分出来。鉴于直方图算法存储离散值而不是连续特征值,我们通过将互斥特征放在不同的箱中来构建bundle。这可以通过将偏移量添加到特征原始值中实现,例如,假设bundle中有两个特征,原始特征A取值[0, 10],B取值[0, 20]。我们添加偏移量10到B中,因此B取值[10, 30]。通过这种做法,就可以安全地将A、B特征合并,使用一个取值[0, 30]的特征取代AB。算法见算法4,

EFB算法能够将许多互斥的特征变为低维稠密的特征,就能够有效的避免不必要0值特征的计算。实际,通过用表记录数据中的非零值,来忽略零值特征,达到优化基础的直方图算法。通过扫描表中的数据,建直方图的时间复杂度将从O(#data)降到O(#non_zero_data)。当然,这种方法在构建树过程中需要而额外的内存和计算开销来维持预特征表。我们在lightGBM中将此优化作为基本函数,因为当bundles是稀疏的时候,这个优化与EFB不冲突(可以用于EFB)。

Experiments

这部分主要写了lightGBM的实验结果,主要用了五个公开数据集,如下

微软的排序数据集(LETOR)包括30K的网页搜索,数据集几乎都是稠密的数值特征。

Allstate是保险和航空延误数据都包含了大量的one-hot特征。

后两个是KDD CUP2010和KDD CPU2012数据集,使用了冠军解决方案中的特征,其中包含了稀疏和稠密的特征,并且这两个数据集特别大。

这些数据集都比较大,而且包含了稀疏和稠密的特征,涵盖了很多真实的业务,因此它们能够完全地测试lightGBM的性能。

5.1 Overall Comparison

XGBoost和lightGBM without GOSS 和EFB(lgb baseline),作为比较的基准。XGBoost使用了两个版本:xgb_exa(预排序)和xgb_his(直方图算法)。对于xgb_exa做了参数调整,使XGBoost长成和其他算法相似的树。并且调整参数在速度和准确率间平衡。对于Allstate、KDD10 和 KDD2012,设置a = 0.05 , b = 0.05 ,对于航空延误和LETOR,我们设置a = 0.1 , b = 0.1 ,数据集EFB我们设置γ = 0 。所有的算法有固定迭代次数。在一定迭代次数内,我们取最高的分数。

下表是训练时间对比(时间是每次迭代的平均时间)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fbWCWb2P-1614864729636)(https://raw.githubusercontent.com/InsaneLife/MyPicture/master/LightGBM%20A%20Highly%20Efficient%20Gradient%20Boosting_4.png)]

下表是精确度对比,分类使用AUC评价,排序使用NDCG评价。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DRC3a8ld-1614864729637)(https://raw.githubusercontent.com/InsaneLife/MyPicture/master/LightGBM%20A%20Highly%20Efficient%20Gradient%20Boosting_5.png)]

下图是飞行延时和LETOR的训练曲线。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qstuzcRP-1614864729640)(https://raw.githubusercontent.com/InsaneLife/MyPicture/master/LightGBM%20A%20Highly%20Efficient%20Gradient%20Boosting_6.png)]

5.2 Analysis on GOSS

**速度上:**GOSS具有加速训练的能力,表2中可以看出GOSS几乎加速了两倍。虽然GOSS用了10%-20%的数据训练,但是由于有一些额外的计算,所以加速并不和数据量成反比,但是GOSS仍然极大加速了训练。

**精度上:**从表4中可以看出,同样采样率,GOSS精度总比SGB好。

5.3 Analysis on EFB

表2表明,EFB在大数据集上能够极大加速训练。因为EFB合并大量的稀疏特征到低维稠密的特征,并且由于之前的孤立的特征被bundle到一起,能能够极大提高缓存的命中率,因此,它全部的效率提高是动态的。

综上这些分析,EFB是改进直方图算法稀疏性的非常高效的算法,能够极大地加速GBDT训练。

6 Conclusion

本文提出了新颖的GBDT算法–LightGBM,它包含了连个新颖的技术:Gradient-based One-Side Sampling (GOSS) 和Exclusive Feature Bundling (EFB)(基于梯度的one-side采样和互斥的特征捆绑)来处理大数据量和高维特征的场景。我们在理论分析和实验研究表明,GOSS和EFB使得LightGBM在计算速度和内存消耗上明显优于XGBoost和SGB。

未来,我们将研究优化如何在GOSS中选择a,b。继续提高EFB在高维特征上的性能,无论其是否是稀疏的。

CSDN原文:http://blog.csdn.net/shine19930820/article/details/79123216

References

  1. 原文:LightGBM: A Highly Efficient Gradient Boosting Decision Tree
  2. 源码: https://github.com/Microsoft/LightGBM
  3. XGBoost原理
  4. XGBoost A Scalable Tree Boosting System
  5. GBDT论文
  6. http://blog.csdn.net/shine19930820/article/details/65633436
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

百川AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值