集成算法之Boosting -XGboost 面试题集合

本文详细介绍了XGBoost的基本概念、与GBDT的区别、并行训练的优势、防止过拟合的策略以及与随机森林的比较。XGBoost以其高效、灵活和准确的特性,在机器学习面试中常被问及。
摘要由CSDN通过智能技术生成

面试题目的收集分别参考以下博客,但是回答的形式可能有所不同

https://blog.csdn.net/weixin_38753230/article/details/100571499

1. 简单介绍一下XGBoost 

它是极度的gradient boostIng算法,基于可以二阶导的任何损失函数的前向分布式的学习算法,可以用于分类和回归。基于GBDT和正则化的思想,加入特征属性的加权分割点法,并行处理,缺失值处理以及硬件的优化过程,使其算法在泛化能力和精确度上有了较好的平衡,并且运算时间有了大幅度提升

2. XGBoost与GBDT有什么不同

(1) 初值的设置:XGBoost初值是任何常数,无论回归还是分类默认0.5,GBDT是使得所有数据损失函数和最小的值,回归和分类的初值不同

(2)目标函数:XGBoost只要是可以进行二次泰勒展开的损失函数都可以,另外在基本损失函数的基础上增加了对叶子节点数目的L1正则项和对预测结果的L2正则项;GBDT一般回归时满足一次导就可以,分类一般要满足二次导

(3)基学习器:XGBoost有其自己独特的建立基学习器的方法,建立及学习的过程是以最小化目标函数为指导思路,利用similarityScore的指标取计算gain从而确定最优的基学习器的过程,这个过程支持列抽样,和随即森林类似。GBDT的基学习器就是CART决策树,也就是利用GINI系数或MSE获取最优子树

(4&#x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Lee_Yu_Rui

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值