GBDT和Xgboost

GBDT(Gradient Boosting Decision Tree)是一种基于决策树的集成学习方法,它通过负梯度来指导决策树的构建。Xgboost是GBDT的一种高效实现,包括损失函数的二阶展开、快速寻找分割点、防止过拟合的策略以及对缺失值的处理。Xgboost通过并行查找和CPU缓存优化提高效率,同时具备列抽样和shrinkage等防止过拟合的机制。
摘要由CSDN通过智能技术生成

GBDT

英文全称:Gradient Boosting Decision Tree 。

一句话解释:以决策树为基模型(base model),以损失函数的负梯度为学习目标的boosting集成模型

这句话有三个概念:决策树,损失函数的负梯度,boosting

对第一个基本概念的解释:

决策树主流有三类ID3,C4.5,CRAT树。gbdt的基模型是CART树。

id3使用信息增益作为分裂点选择

C4.5使用信息增益比作为分裂点选择

cart树使用基尼系数作为分裂点选择

第二个基本概念的解释:

损失函数的负梯度本身是优化算法中特征权重的更新方向和大小。为什么GDDT的基模型要去拟合损失负梯度,而不是拟合y,或者拟合y- ^y?

1.GBDT整体上是拟合y的,但是每个基模型不是去拟合y,如果是的话就是bagging集成模型,比如随机森林

2.GBDT的基模型为什么不是拟合残差。将下式一阶展开,可以发现若移动负梯度是最小化损失函数的方向。

如果不考虑正则项,并且使用平方误差,拟合残差是没有问题的。在有正则项的情况下就不再是损失函数最小了。

第三个基本概念的解释:

集成模型是把若干个基模型(也称“弱学习器”)按照一定的策略组合起来,发挥1+1>2的作用。集成模型主要有三种集成策略,bagging, stacking,boosting。

Bagging集成:各个基模型训练相互独立。在回归

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值