对LightGBM的一点理解

LightGBM是微软团队2017年发表在NIPS的一篇论文,也是一种基于GBDT的Boosting的方法。之前有了各种Boosting方法,以及在各类数据比赛中大放异彩的XGBoost,LightGBM的优势在哪里呢?

LightGBM是一种基于GBDT的提升方法。对于这类基于树的模型,最耗时的部分就是在进行特征选择结点分裂时,需要遍历所有可能的划分点,计算信息增益,从而找到最优的划分点。前面虽然有了各类的算法对这个过程进行优化,比如XGBoost,但是在特征维数很高,样本量很大的情况下,它的效率和灵活性还是不够好。因此,本文的作者提出了LightGBM这个模型,极大的提升了计算效率。根据论文里的说法,在模型精度和GBDT差不多的情况下训练速度比它快了20倍。所以,LightGBM这个模型的提出,所要解决的主要问题是计算效率的问题。在快的同时,还能保证模型的精度,这是它最大的优点。

为了让GBDT快起来,入手的方向只有两个,要不就减少特征数,这样在进行特征选择结点分裂的时候能够减少计算量,提高速度;要不就减少训练样本数,这样也能减少计算量,提高效率。但是这样做缺点很明显,牺牲了模型的精度啊!有没有什么两全其美的方法呢?

在介绍LightGBM的方法之前,我们先回顾一下之前的一些模型是怎么做的。
对于一些采用行采样进行加速的模型,根据的是样本的权重进行的采样(比如AdaBoost模型,在训练过程中会提升那些之前被误分类的样本的权重),但是对与GBDT来说这就不适用了,因为它的样本是没有权重的;不需要

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值