2. GBDT

以决策树为基函数的提升方法称为提升树

  • 回归问题的提升树算法

    • 首先训练出一个基函数, 计算这个模型与训练数据的残差

    • 不断的拟合前一个模型得到的残差,从而得到当前模型,知道满足误差要求

  • 分类问题的提升树算法

 

梯度提升

    对于提升树的优化过程,当损失函数为平方损失或者指数损失函数的时候,每一步优化都简单,但是对于一般的损失函数而言,每一步优化并不简单。

算法思想:

  1. 初始化第一课回归树, 使得整体误差最小

  2. 根据提升决策树的思想,每次训练都是拟合上一课树的残差

  3. 算法的改进就是利用损失函数的负梯度来拟合残差,这样所有的负梯度加起来就会得到一个整体的梯度下降

 

    

    

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值