XGB算法梳理

XGBoost是基于GBDT的优化算法,通过不断添加树来拟合残差,防止过拟合。其特点包括对缺失值的处理、正则化项和近似算法。XGBoost的损失函数、节点分裂、正则化和参数如eta、min_child_weight等,都在控制模型复杂度和防止过拟合中起到关键作用。常见应用场景包括分类和回归问题,支持多种平台和分布式处理。
摘要由CSDN通过智能技术生成

XGB算法梳理

  1. 算法原理
  2. 损失函数
  3. 分裂结点算法
  4. 正则化
  5. 对缺失值处理
  6. 优缺点
  7. 应用场景
  8. sklearn参数
    XGBoost是基于GBDT(Gradient Boosting Decision Tree) 改进而来的,
    xgboost的基础是梯度提升算法,提升法中最著名的算法包括Adaboost和梯度提升树,梯度提升树可以有回归树和分类树,两者都是以CART树算法为主流,xgboost背后也是CART树,这意味着xgboost中所有树都是二叉树。

该算法思想就是不断地添加树,不断地进行特征分裂来生长一棵树,每次添加一个树,其实是学习一个新函数,去拟合上次预测的残差。当我们训练完成得到k棵树,我们要预测一个样本的分数,其实就是根据这个样本的特征,在每棵树中会落到对应的一个叶子节点,每个叶子节点就对应一个分数,最后只需要将每棵树对应的分数加起来就是该样本的预测值。
在这里插入图片描述
1.算法原理
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
2.损失函数
在这里插入图片描述
3.分裂结点算法
在这里插入图片描述

当数据量十分庞大,以致于不能全部放入内存时,Exact Greedy 算法就会很慢。因此XGBoost引入了近似的算法。即对每一个特征进行「值」采样。原来需要对每一个特征的每一个可能分割点进行尝试,采样之后只针对采样的点(分位数)进行分割尝试,这种方

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值