GB和GBDT 算法流程及分析

1、优化模型的两种策略:

1)基于残差的方法

  残差其实就是真实值和预测值之间的差值,在学习的过程中,首先学习一颗回归树,然后将“真实值-预测值”得到残差,再把残差作为一个学习目标,学习下一棵回归树,依次类推,直到残差小于某个接近0的阀值或回归树数目达到某一阀值。其核心思想是每轮通过拟合残差来降低损失函数。

  总的来说,第一棵树是正常的,之后所有的树的决策全是由残差来决定。

2)使用梯度下降算法减小损失函数。

  对于一般损失函数,为了使其取得最小值,通过梯度下降算法,每次朝着损失函数的负梯度方向逐步移动,最终使得损失函数极小的方法(此方法要求损失函数可导)。

2、GB(Gradient Boosting)梯度提升算法

  GB其实是一个算法框架,即可以将已有的分类或回归算法放入其中,得到一个性能很强大的算法。

  GB总共需要进行M次迭代,每次迭代产生一个模型,我们需要让每次迭代生成的模型对训练集的损失函数最小,而如何让损失函数越来越小呢?我们采用梯度下降的方法,在每次迭代时通过向损失函数的负梯度方向移动来使得损失函数越来越小,这样我们就可以得到越来越精确的模型。

梯度提升算法(GB)过程如下:[1]

1)初始化损失函数。

  

2)对于第m轮迭代,当m<=M时循环执行A)~D)      (m=1,2,…,M)

  A)计算残差rmi

  

  计算损失函数的负梯度在当前模型的值,将它作为残差的估计,对于平方损失函数它就是残差,对于一般损失函数,它就是残差的近似值。

  B)对rmi拟合一颗回归树,得到第m课树的叶节点区域Rmj。(j=1,2,…,J)

    (估计回归树叶节点区域,拟合残差近似值)

  C)对j=1,2,…,J,线性搜索出损失函数的最小值

  

  D)更新f(x)

  

3)得到回归树

  

下面给出Friedman大牛论文中的GB算法[6],论文下载链接:http://pan.baidu.com/s/1pJxc1ZH

图2.1 Gradient Boost算法[6]

3、GBDT (Gradient Boosting Decision Tree):梯度提升决策树算法

  此处主要讨论多类Logistic回归问题

图3.1 多类logistic回归算法[6]

关于以上代码,网友已有分析:[5] (在此借用)

“1. 表示建立M棵决策树(迭代M次)

2. 表示对函数估计值F(x)进行Logistic变换

3. 表示对于K个分类进行下面的操作(其实这个for循环也可以理解为向量的操作,每一个样本点xi都对应了K种可能的分类yi,所以yi, F(xi), p(xi)都是一个K维的向量,这样或许容易理解一点)

4. 表示求得残差减少的梯度方向

5. 表示根据每一个样本点x,与其残差减少的梯度方向,得到一棵由J个叶子节点组成的决策树

6. 为当决策树建立完成后,通过这个公式,可以得到每一个叶子节点的增益(这个增益在预测的时候用的)

  每个增益的组成其实也是一个K维的向量,表示如果在决策树预测的过程中,如果某一个样本点掉入了这个叶子节点,则其对应的K个分类的值是多少。

7. 的意思为,将当前得到的决策树与之前的那些决策树合并起来,作为新的一个模型

最后本人对GBDT研究得还不够透彻,下次研究清楚了再专门写一篇GBDT的文章!!

 

参考文献:

[1] 李航,统计学习方法。

[2] 林轩田,机器学习技法。

[3] 程序员之家,http://www.programerhome.com/?p=3665

[4] DianaCody, http://www.dianacody.com/2014/11/01/GBRT.html

[5] leftnoteasy, http://www.cnblogs.com/leftnoteasy/archive/2011/03/07/random-forest-and-gbdt.html

[6] Friedman J H. Greedy Function Approximation: A Gradient Boosting Machine[C]// Annals of Statistics1999:1189--1232.

 

转载于:https://www.cnblogs.com/liuwu265/p/4694191.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
GBDT(Gradient Boosting Decision Tree)是一种集成学习算法,它通过多个决策树的集成来进行预测和分类。GBDT算法的原理是通过迭代的方式,每次迭代都训练一个新的决策树来纠正前面所有决策树的错误。 下面是GBDT算法的基本原理: 1. 初始化:首先,GBDT算法使用一个初始的预测值作为基准,通常可以选择训练集的平均值作为初始预测值。 2. 迭代训练:对于每次迭代,GBDT算法会训练一个新的决策树模型。在训练过程中,通过计算损失函数的负梯度来纠正前面所有决策树的错误。 3. 损失函数:GBDT算法通常使用平方损失函数或对数损失函数来衡量模型的误差。在每次迭代中,通过计算真实值与当前模型预测值之间的差异来更新模型。 4. 加权预测:对于每次迭代,新训练出的决策树会给出一个预测结果。为了将多个决策树的预测结果进行加权,通常会给每个决策树赋予一个权重,这些权重可以通过优化目标函数来确定。 5. 集成预测:最后,GBDT算法将所有决策树的预测结果进行加权求和,得到最终的集成预测结果。 GBDT算法的优点包括:能够处理各种类型的特征,对异常值和噪声具有较好的鲁棒性,能够学习非线性关系等。同时,GBDT算法也存在一些挑战,如对参数调优敏感,计算复杂度较高等。 GBDT算法在机器学习中有广泛的应用,尤其在预测和回归问题上表现出色。它可以有效地处理大规模数据集和高维特征,同时具有较好的泛化能力和鲁棒性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值