高级算法梳理-Task3 XGB算法简介

本文深入解析XGBoost算法,包括其作为梯度提升算法的工作原理、目标函数、正则化项、优化策略以及与GBDT和深度学习的关系。通过泰勒展开和贪心法构建决策树,XGBoost在保持高效训练和预测的同时,通过正则化防止过拟合,提供模型可解释性。
摘要由CSDN通过智能技术生成

本文根据多篇博文整理总结而成

XGBoost(eXtreme Gradient Boosting)--极端梯度提升,XGBoost是boosting算法的其中一种。Boosting算法的思想是将许多弱分类器集成在一起形成一个强分类器。因为XGBoost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器。它是 Gradient Boosting Machine 的一个 c++ 实现,并在原有的基础上加以改进,从而极大地提升了模型训练速度和预测精度。作者为研究机器学习的大牛陈天奇.

在XGBoost中,目标函数的形式为:

                                                  

L(\theta)为损失函数,常用损失函数有平方损失和Logistic损失.\Omega(\Theta)为正则化项.引入目的是希望生成的模型能准确的预测新的样本(测试数据集),而不是简单的拟合训练集的结果(导致过拟合).

XGBoost的推导过程

在集成学习中把某一次迭代后集成的模型表示为:

                                                 \hat{y}_i = \sum_{k=1}^K f_k(x_i), f_k \in \mathcal{F}

相对应的目标函数:

                                       

将这两个公式进行扩展,应用在前

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值