gbdt算法理解

           谈及gbdt算法,不得不提GB与dt算法,即使用梯度提升回归树的方式进行回归提升。

          以下贴上经典算法图:


        1、第一步,算法中的参数,建立M棵回归树,每颗树的深度都为J,其中有一棵树为第一次建立的回归树,其余M-1棵树为残差(在梯度提升回归树里面为使损失函数最小的梯度向量)建立的树,F(X)为估值向量,即每一例为x样本在K类上的估值。

        2、第二步,pk(x)为f(x)的逻辑回归变化,将每类上的估值变为在每类上的真实概率值。

        3、第三步,开始,一类一类的迭代出损失函数衰减最小的概率梯度方向向量,根据yik概率梯度残差训练出一棵J节点的树。

        4、计算出建起来的每棵树叶节点的梯度向量增益,增益即为x在当前分类上的概率估值。

       5、根据每棵树的叶节点增益跟新FM-1(X)的估值,即为x当前分类上的真是概率值加上,基于概率梯度残差计算出来的概率估值。
       6、重复k次,完整迭代一次,得出x的概率估值矩阵模型。

        6、迭代M次后,使得FM(X)概率估值矩阵接近真实概率矩阵模型。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值