XGBoost整理

本文详细介绍了XGBoost的原理,包括目标优化、树的结构化约束、节点分裂和建树方法。讨论了防止过拟合的手段,如收缩、列采样,并解释了XGBoost在分类问题中的处理方式。文章还涵盖了XGBoost调参的重点,如booster、n_estimators和objective等参数,并提供了特征重要性的计算方法。
摘要由CSDN通过智能技术生成

XGboot

Xgboost是GBDT思想算法实现的一种,我们主要先讲一下原理推导,再到实现的细节。
优化的目标公式:
在这里插入图片描述
基于风险最小化,优化的目标函数=损失项+树的结构化约束
在这里插入图片描述
在这里插入图片描述
树的结构化主要有两部分组成:一个是树的叶子节点个数,第二个是每个叶子节点的权重,权重实质就是使每个叶子节点样本中损失最小的预测值(此前,楼主看了半天也不明白,这权重到底是啥)
——————————————————————————————————
为什么这里会对叶子节点的预测值进行L2正则呢?
主要是考虑到,XGBoost是多个树的线性组合,如果某一棵的预测权重非常大,则这颗树非常有可能过拟合。
——————————————————————————————————
现在,我们对上面优化目标进行优化,使用泰勒公式展开后,再求解令损失最小的权重
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
此时,我们对权重w求导:
在这里插入图片描述
将w代入到原公式:

在这里插入图片描述
最终,目标函数越小,代表这棵树的结构越好。

搞定了目标优化,我们开始进行建树,分裂节点。
Xgboost是很多CART回归树集成
初始时,是单棵树树根,然后进行节点分裂。分裂到一定程度,形成一棵树,再创建第二颗树继续分裂,直到满足某种条件。
算法流程如下:
在这里插入图片描述
这里涉及到两个部分:节点分裂的方法分裂/建树停止的条件

  • 节点分裂的方法

每次尝试对已有的叶子

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值