XGB算法梳理

本文详细介绍了XGBoost算法,包括其基于梯度提升的原理、损失函数(如MSE和对数损失)、正则化、分裂点选择算法、缺失值处理策略以及优缺点。XGBoost支持并行处理,适用于分类和回归问题,参数如学习率、n_estimators、min_child_weight等可通过调参优化。
摘要由CSDN通过智能技术生成

1、算法原理

       算法思想就是不断地添加树,不断地进行特征分裂来生长一棵树,每次添加一个树,其实是学习一个新函数,去拟合上次预测的残差。当我们训练完成得到k棵树,我们要预测一个样本的分数,其实就是根据这个样本的特征,在每棵树中会落到对应的一个叶子节点,每个叶子节点就对应一个分数,最后只需要将每棵树对应的分数加起来就是该样本的预测值。

2、损失函数

    回归问题常用损失函数损失函数是MSE:

    

   分类问题常用的损失函数是对数损失函数:

   XGBoost目标函数定义为:

 目标函数由两部分构成,第一部分用来衡量预测分数和真实分数的差距,另一部分则是正则化项。正则化项同样包含两部分,T表示叶子结点的个数,w表示叶子节点的分数。γ可以控制叶子结点的个数,λ可以控制叶子节点的分数不会过大,防止过拟合。

3、分裂点算法

3.1 Exact G

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值