Xgboost和lightgbm的区别

本文是关于XGBoost与LightGBM的数据科学家工具比较,两者都是对GBDT的优化实现。XGBoost在处理categorical features时需要额外处理,而LightGBM使用非one-hot的优化方法,并提供了GOSS优化。在处理连续变量时,XGBoost使用histogram方法,而LightGBM的生长策略为leaf-wise,更注重梯度优先。
摘要由CSDN通过智能技术生成

这是数据应用学院8/4 Live:数据科学家常用工具XGBoost与LightGBM大比拼,性能与结构的笔记。

https://www.youtube.com/watch?v=dOwKbwQ97tI

 

Xgboost, lightgbm, catboost实际上是对GBDT方法的不同实现,它们针对同一目标、做了不同的优化处理。

XGboost作为最早出现的库,优化做得稍微少一些,但总体而言,它们都对基础的GBDT方法做了不同的优化。

首先,它们在基础逻辑上并没有什么不同,我们限定max_trees或者max_iterations,之后算法从0棵树开始跑,每一轮根据上一轮的残差增加一棵决策树。在每一次增加决策树的时候,选择当前的最优结构。而在生成当前决策树的过程中,各个算法采用了不同的优化方案。

在生成每一棵决策树时,我们从一棵空决策树开始,不断地

  • 3
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值