GBDT那些事

看完GBDT详解,才发现GBDT这四个 词已经完全概括了这个算法的思想,Gradient是核心关键词,算法的目的是减少残差,采取的策略是在残差减少的梯度方向上建立新的模型。算法伪代码如下图


 由算法流程图,可以清晰地发现


一、起初,先获得loss的初始值,这里的loss可以是Table10.2中的多个标准,对于每一种loss得到的梯度表达式也不一样。


二、下面的过程就是沿着梯度的方向减小残差。首先获得当前的残差向量 2.(a)。

三、建立回归树来拟合这个残差向量2.(b)这也是DT过程,拟合的过程可以是通过寻求最小均方差来寻找分裂点,生成一棵树,当然,这棵树并不能达到100%拟合,因此就会产生新的梯度向量2.(d),在继续生成新的树来拟合新的残差向量。

总体来说:其实就是利用Boost的思想不断去学习那些分错的样本以使得残差越来越小。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值