XGBoost模型理解(python实现)与GBDT/RF模型对比

这篇博客深入探讨了XGBoost模型,从损失函数定义、正则项、树结构到算法总结。同时,对比了XGBoost与GBDT、RF的异同,包括目标函数、正则化和并行计算优化。最后,介绍了XGBoost在Python中的实现,涵盖关键参数设置和模型调优。
摘要由CSDN通过智能技术生成

目录

一、XGBoost模型理解

1、损失函数定义

2、正则项

3、树结构

4、XGBoost算法总结:

二、XGBoost、GBDT、RF三种集成模型比较

三、XGBoost模型Python实现


一、XGBoost模型理解

监督学习的目标函数定义:

1、损失函数定义

       损失函数通常有残差平方和(回归问题),log损失函数(分类问题),以下以残差平方和为例,log损失函数同理。

      树集成模型的最优化问题,通常是固定已训练的模型,每次增添一个树:

    第t次迭代树的目标函数为:

    考虑目标函数的二阶泰勒展开:

        采用泰勒二阶展开式分解目标函数,意味着当损失函数为log函数等非残差平方和时,采用损失函数在当前模型的二阶泰勒展开为下颗树的目标函数。

 

2、正则项

    定义正则项为:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值