XGboost

什么是XGboost

XGboost本质上还是GBDT,两者都是Boosting方法

XGboost 和 GBDT的主要区别是目标函数的定义

XGboost的目标函数是

\large obj^{(t)} = \sum_{i=1}^{n}l(y_i, \hat{y_i}^{(t-1)} + f_t(x_i)) + \Omega (f_t) + constant

l()为损失函数

\large \Omega是正则项

constant是常数项

XGboost 的核心算法思想:

1、不断添加树,每添加一个树,即学习一个新的函数f(x),去拟合上次预测的残差

2、训练完成后得到k颗树,根据样本特征,在每棵树中都会落到一个叶子节点下

3、叶子结点对应的值相加就是预测结果

 

新加入的树如何构建呢?

新的f_t(x)使得目标函数尽可能的小

 

正则项部分

XGboost对树的复杂度包含两部分:

1、树中叶子节点的个数T

2、树上叶子节点的得分w的L2模平方 即 对w进行L2正则化(目的:避免过拟合)

树的复杂度越小,泛化能力越强

 

 

XGboost和GBDT的不同

1、XGboost加入了正则项控制模型复杂度

2、GBDT只用了代价函数的一阶导数信息, XGboost对代价函数二阶泰勒展开,同时使用一阶、二阶导数

3、GBDT采用CART作为基分类器,XGboost支持多类型基分类器

4、GBDT每次迭代采用全部数据,XGboost采用与随机森林相似策略,支持数据采样

 

XGboost为什么要用泰勒展开

 

常见问题

1、xgboost适合处理哪些场景的问题?

2、xgboost 和 LR 的区别(应用)

3、xgboost的底层算法

4、xgboost的特征重要性计算、正则表达式

5、xgboost的原理,如何防止过拟合

6、lightgbm  xgboost rf lr 优缺点 应用场景

7、如果实现特征并行化

8、xgboost如何做分类任务

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值