机器学习面试必考面试题汇总—附解析

本文汇总了机器学习面试中关于XGBoost和LightGBM的常见问题,包括它们的特性、优缺点、节点分裂策略以及对异常值的敏感性。讨论了XGBoost如何处理特征缺失值,以及与LightGBM在节点分裂上的区别。此外,还探讨了XGBoost的预排序算法、特征重要性评估以及与GBDT的差异。文章提供了调参的基本流程,并解释了XGBoost如何仅依赖数据的一阶和二阶导数信息进行优化计算。
摘要由CSDN通过智能技术生成

问题:xgboost对特征缺失敏感吗,对缺失值做了什么操作,存在什么问题

不敏感,可以自动处理,处理方式是将missing值分别加入左节点 右节点取分裂增益最大的节点将missing样本分裂进这个节点 。这种处理方式的问题在xgboost仅仅在特征的非缺失的值上进行分裂然后missing值直接放入其中一个节点,显然当缺失值很多的情况下,比如缺失80%,那么xgb分裂的时候仅仅在20%的特征值上分裂,这是非常容易过拟合的。

问题:简要说一下Lightgbm相对于xgboost的优缺点

优点:直方图算法—更高(效率)更快(速度)更低(内存占用)更泛化(分箱与之后的不精确分割也起到了一定防止过拟合的作用);

缺点:直方图较为粗糙,会损失一定精度,但是在gbm的框架下,基学习器的精度损失可以通过引入更多的tree来弥补。

问题:对比一下XGB和lightGBM在节点分裂时候的区别

xgb是level-wise,lgb是leaf-wise,level-wise指在树分裂的过程中,同一层的非叶子节点,只要继续分裂能够产生正的增益就继续分裂下去,而leaf-wise更苛刻一点,同一层的非叶子节点,仅仅选择分裂增益最大的叶子节点进行分裂。


篇幅有限,仅展示部分题目,本篇文章面试题来源于七月在线 - 智能时代在线职教平台</

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值