机器学习算法二:详解Boosting系列算法二GBM

GBM(Gradient Boosting Machine)是一种梯度提升树算法,结合了boosting加法模型和boosted tree的概念。文章介绍了如何从Adaboost和提升树过渡到GBM,并详细阐述了GBM的计算步骤,包括初始化和梯度计算。作者指出,GBM是通过梯度下降优化残差来构建模型,并计划在后续学习中进一步深入解析该算法。参考资料包括《统计学习方法》和相关专业论文。
摘要由CSDN通过智能技术生成

GBM

GBM 全称gradient boosting machine,一般叫做梯度提升树算法。是一类很常用的集成学习算法,在多次数据挖掘比赛中获得了优秀的成绩。
在解释GBM时,有很多内容需要提前一并解释了才有助于理解GBM算法。建议阅读此篇内容以前先了解一个Adaboost算法,接下来此文还会给出boosting加法模型以及boosted tree(提升树)的解释,最后再讲解GBM算法。

boosting加法模型

提升类的算法可以认为是一种加法模型:

f(x)=m=1MαmT(x;Θm) f ( x ) = ∑ m = 1 M α m T ( x ; Θ m )

αm α m 是每个基学习器的权系数, T(x;Θm) T ( x ; Θ m ) 代表学习得到的第m个基学习器, m m 为学习器个数, Θ m 为学习器分类的参数,一般这里指分类树或者回归树模型参数。
在给定训练数据和损失函数形式后,boosting学习模型可以定义为一个损失函数极小化的问题, 优化的目标函数为:
argminfi=1NL(yi,f(xi)) arg ⁡ min f ⁡ ∑ i = 1 N L ( y i , f ( x i ) )
L L 为损失函数, N 为样本个数。从这两个定义我们就可以知道boosting类算法的模型和优化目标函数是什么。接下来理解boosted tree 就容易了。

boosted tree

提升树是以分类树和回归树为基学习器的提升算法,就是将 T(x;Θm) T ( x ; Θ m ) 学习器定义为了决策树。提升树被认为是统计学性能最好的方法之一。为了方便大家理解,这里就不再另外定义模型了(参考前文),提升树模型如下

f(x)=m=1MαmT(x;Θm) f ( x ) = ∑ m = 1 M α m T ( x ; Θ m )
对于二分类问题,提升树可以看做采用二分类树的adaboost算法,所以这里不再详细解释。因此这里的 T(x;Θm) T ( x ; Θ m ) 为回归树。回归提升树使用的前向分布计算法:
  • 6
    点赞
  • 84
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值