GBDT基本原理

GBDT(Gradient Boosting Decision Tree)是机器学习中的重要算法,以其出色的拟合能力和广泛的应用场景著称。它采用CART回归树作为弱分类器,通过迭代训练残差来优化模型。每轮迭代的目标是减小损失函数,实现对真实分布的逼近。GBDT结合了决策树和Boosting思想,通过不断训练弱分类器并组合,逐步提高模型精度。
摘要由CSDN通过智能技术生成

GBDT (Gradient Boosting Decision Tree),梯度提升树,在传统机器学习算法里面是对真实分布拟合的最好的几种算法之一,在前几年深度学习还没有大行其道之前,gbdt在各种竞赛是大放异彩。原因大概有几个,一是效果确实挺不错。二是既可以用于分类也可以用于回归。三是可以筛选特征。

1. Decision Tree:CART回归树
  GBDT使用的决策树是CART回归树,无论是处理回归问题还是二分类以及多分类,GBDT使用的决策树都是都是CART回归树。为什么不用CART分类树呢?因为gbdt 每轮的训练是在上一轮的训练的残差基础之上进行训练的。这里的残差就是当前模型的负梯度值 。这个要求每轮迭代的时候,弱分类器的输出的结果相减是有意义的。残差相减是有意义的。如果选用的弱分类器是分类树,类别相减是没有意义的。
  对于回归树算法来说最重要的是寻找最佳的划分点,那么回归树中的可划分点包含了所有特征的所有可取的值。在分类树中最佳划分点的判别标准是熵或者基尼系数,都是用纯度来衡量的,但是在回归树中的样本标签是连续数值,所以再使用熵之类的指标不再合适,取而代之的是平方误差,它能很好的评判拟合程度。
  回归树生成算法:
输入:训练数据集D:
输出:回归树f(x).
在训练数据集所在的输入空间中,递归的将每个区域划分为两个子区域R1,R2(CART是二叉树,所以分为两个区域),令R1,R2区域的标签值均值分别为c1,c2,并决定每个子区域上的输出值,构建二叉决策

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值