xgboost 正则项_关于xgboost和GBDT的主要区别

这篇博客探讨了xgboost算法相对于GBDT的改进之处,包括预测值计算方式的不同、正则项的引入以减少过拟合,以及通过二阶泰勒展开优化目标函数。尽管xgboost在泰勒展开中使用了二阶导数,但在构建最佳树结构时仍依赖一阶导数,与GBDT在此点并无本质区别。xgboost在算法竞赛和高科技行业中广泛应用,表现出优越性能。
摘要由CSDN通过智能技术生成

8292c2bc25e45043b95c6b7e4ff24107.png

最近学习了xgboost算法,中文翻译过来应该是极限梯度提升算法。由陈天奇所设计的,致力于让提升树突破自身的设计计算极限,以实现快速运算和性能优化为目标。目前在算法比赛平台,排名靠前的解决方案已经被xgboost算法统治。另外在高科技行业和数据咨询行业也开始使用xgboost算法。那么问题来了:相对于GBDT算法,xgboost算法做了哪些改进?

首先,两者在求预测值的方式不同。对于GBDT算法,它的预测值是所有分类器的加权求和:

而对于xgboost来讲,它的预测值是所有弱分类器叶子权重直接求和得到的:

其次,在xgboost算法的损失函数中陈天奇引入了正则项。在普通的梯度提升树中,目标函数是没有使用正则项。但是xgboost借用正则项来修正树模型的天生过拟合这个缺陷。

另外在许多文章里面写到:

传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。

这个说法我觉得不准确。xgboost算法在运用泰勒展开主要是为了简化公式,其中在泰勒展开部分运用到了二阶求导。但是在求解最佳的树结构过程中,xgboost让目标函数最小化也是求解一阶导数。在这个地方xgboost和GBDT本质上讲是没有任何区别的。所以我觉得上述说法不太准确。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值