Xgboost的介绍

Xgboost概念

XGBoost全称:eXtreme Gradient Boosting,是一种基于决策树的集成机器学习算法,使用梯度上升框架,适用于分类和回归问题。优点是速度快、效果好、能处理大规模数据、支持多种语言、支持自定义损失函数等,不足之处是因为仅仅推出了不足5年时间,需要进一步的实践检验。

算法原理

先来举个例子,我们要预测一家人对电子游戏的喜好程度,考虑到年轻和年老相比,年轻更可能喜欢电子游戏,以及男性和女性相比,男性更喜欢电子游戏,故先根据年龄大小区分小孩和大人,然后再通过性别区分开是男是女,逐一给各人在电子游戏喜好程度上打分,如下图所示。

在这里插入图片描述我们知道对于单个的决策树模型容易出现过拟合,并且不能在实际中有效应用。所以出现了集成学习方法。如下图,通过两棵树组合进行玩游戏得分值预测。其中tree1中对小男生的预测分值为2,tree2对小男生的预测分值为0.9。则该小男生的最后得分值为2.9。

在这里插入图片描述
将上面集成学习方法推广到一般情况,可知其预测模型为:
在这里插入图片描述其中为树的总个数,表示第颗树,表示样本的预测结果。损失函数为: 在这里插入图片描述
∑ i l ( y i , y ^ i ) \sum _ { i } l \left( y _ { i } , \hat { y } _ { i } \right) il(yi,y^i)代表损失函数,而 ∑ k Ω ( f k ) \sum _ { k } \Omega \left( f _ { k } \right) kΩ(fk)代表正则化项

算法训练:
首先优化第一棵树,完了之后再优化第二棵树,直至优化完K棵树。整个过程如下图所示:

在这里插入图片描述训练时,新的一轮加入一个新的f函数,来最大化的降低目标函数,在第t轮,我们的目标函数为
在这里插入图片描述
将目标函数做二阶泰勒展开,进行公式推导:
在这里插入图片描述在这里插入图片描述在这里插入图片描述

将叶节点的最优值带入目标函数,最终目标函数的形式为:
在这里插入图片描述
在这里插入图片描述在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值