GBDT算法梳理

1.GBDT原理:

GBDT(gradient boosting decision tree)梯度提升决策树,是属于boosting集成算法的一类。bagging算法是每个个体学习器的样本是存在差异的,但是boosting每个个体学习器的样本是不变,但是每次迭代的样本权重是不同的。Adabost算法也是boosting算法之一,它是根据上一次的误差修改此次训练的样本权重,不断的迭代实现误差接近于零。而GBDT算法采用前向分布算法。

2.前向分布算法:

多学习器结合的基本思想是根据多个学习器的输出线性加法求和之后,将加法模型的损失最小化,即将问题转化成损失函数极小化的问题。
多个个体分类器的线性组合就得到下面的加法模型:
在这里插入图片描述
其中b(x;γm)为基函数,γm为基函数的参数,βm为基函数的系数,βm表示着对应的基函数在加法模型f(x)中的重要性。

最小化加法模型的损失函数:
 在这里插入图片描述
由于学习的是加法模型,如果能从前向后每一步只学习一个基函数及其系数,逐步逼近优化目标函数式,那么就可以简化优化的复杂度。每次学习一个基函数(基分类器),只针对这个基分类器进行优化,使其损失函数最小。
在这里插入图片描述
在这里插入图片描述

3.负梯度拟合和损失函数

在这里插入图片描述
最关键的来了,那这个所谓的损失是什么呢?下表是常见的损失函数:在这里插入图片描述

在这里插入图片描述
对应损失函数列表可知,GBDT使用的平方损失,经过负梯度拟合得到了y−f(xi),这就是我们最终要去拟合的,它的另一个名字叫作残差。

4.GBDT回归算法:

伪代码如下:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值