GBDT

全称:Gradient Boosting Decision Tree,梯度提升决策树

顾名思义,基学习器使用决策树,且只能是回归树,而不能是分类树 。因为回归树输出的是连续值,可以累加,而分类树计算的值无法累加,即累加没有意义。

算法流程:对每一轮 m,当前决策树模型为 f m − 1 ( x ) f_{m-1}(x) fm1(x) (强学习器,决策树组合)。每一轮都对应着一个损失函数: L ( y , f m ( x ) ) = L ( y , h m ( x ) + f m − 1 ( x ) ) L(y, f_{m}(x)) = L(y, h_{m}(x) + f_{m-1}(x)) L(y,fm(x))=L(y,hm(x)+fm1(x)). ( h m ( x ) h_m(x) hm(x) 为这一轮要预测的单个决策树)通过最小化损失函数 (即拟合残差) 得到下一棵决策树 h m ( x ) h_m(x) hm(x),从而得到 f m ( x ) f_m(x) fm(x)

残差:真实值与学习器的差值,即当前强学习器的输出加上残差可以得到真实值( f m − 1 ( x ) + r = y ) f_{m-1}(x)+r=y) fm1(x)+r=y)
拟合残差:决策树输出的值不断逼近残差。

当损失函数为平方误差函数时,
L ( y , f m ( x ) ) = [ y − f m − 1 ( x ) − h m ( x ) ] 2 = [ r − h m ( x ) ] 2 L(y, f_m(x)) = [y-f_{m-1}(x)-h_m(x)]^2 \\ = [r-h_m(x)]^2 L(y,fm(x))=[yf

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值