机器学习sklearn-xgboost1

本文深入探讨了sklearn-xgboost中的梯度提升树,分析了方差与泛化误差的关系,并着重讨论了两个重要参数subsample和eta的影响,帮助读者更好地理解和应用这一机器学习库。
摘要由CSDN通过智能技术生成

目录

概述

梯度提升树 

方差与泛化误差

结论

重要参数subsample

重要参数eta


概述

XGBoost 全称是 e X treme G radient B oosting ,可译为极限梯度提升算法。 它由陈天奇所设计,致力于让提升树突破 自身的计算极限,以实现运算快速,性能优秀的工程目标。 和传统的梯度提升算法相比, XGBoost 进行了许多改进, 它能够比其他使用梯度提升的集成算法更加快速,并且已经被认为是在分类和回归上都拥有超高性能的先进评估器。

梯度提升树 

XGBoost 的基础是梯度提升算法,因此我们必须先从了解梯度提升算法开始。梯度提升( Gradient boosting )是构建预测模型的最强大技术之一,它是集成算法中提升法(Boosting )的代表算法。
之前学习的随机森林是集成算法中袋装法的代表。
集成算法通过在数据上构建多个弱 评估器,汇总所有弱评估器的建模结果,以获取比单个模型更好的回归或分类表现。 弱评估器被定义为是表现至少比随机猜测更好的模型,即预测准确率不低于50% 的任意模型。
集成不同弱评估器的方法有很多种。有像我们曾经在随机森林的课中介绍的,一次性建立多个平行独立
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值