梯度提升树(GBDT)理解

GBDT是集成学习方法Boosting中的一种,所以其中每个弱分类器都有先后顺序,同时每个弱分类器都有其的权重。

GBDT的思想
在GBDT的迭代过程中,假如前一轮迭代得到的强分类器是 Fm1(x) F m − 1 ( x ) ,而其的损失函数为 L(y,Fm1(x)) L ( y , F m − 1 ( x ) ) ,这是本轮的的迭代就是找一个CART回归树模型(弱分类器) T(x;θm) T ( x ; θ m ) ,让本轮的损失 Ly,Fm1+ρmT(x;θm) L ( y , F m − 1 + ρ m T ( x ; θ m ) ) 最小。简单说,就是本轮要找个决策树,使得已有的强分类器的损失变小。

“GBDT的核心”
Freidman提出用损失函数的负梯度来表示本轮损失的近似值,进而确定CART树。

假如迭代到第M轮,这时损失函数的负梯度就可以表示为如下:

gmi=[L(yi,Fm(xi))F(xi)]F(x)=Fm1 (x) g m i = − [ ∂ L ( y i , F m ( x i ) ) ∂ F ( x i ) ] F ( x ) = F m − 1   ( x )

其中i=1,2···N表示样本数。

这个负梯度就是本轮迭代的损失值,也就是我们优化CART树的标签。即有:

θm=argminα,βi=1N[gmiβTm(xi;θ)]2 θ m = a r g m i n α , β ∑ i = 1 N [ g m i − β T m ( x i ; θ ) ] 2

这里用 Tm(x;θ) T m ( x ; θ ) 去拟合上面提到的“标签”,而且使用了最小二乘法的拟合方法。

同时每个弱分类器都有其的权重,这里我们可以理解成“步长”:

ρm=argminρi=1NL(yi,Fm1(xi)+ρT(xi,θm)) ρ m = a r g m i n ρ ∑ i = 1 N L ( y i , F m − 1 ( x i ) + ρ T ( x i , θ m ) )

最后迭代完这轮后,得到的强分类器 Fm(x)=Fm1(x)+ρmT(x;θm) F m ( x ) = F m − 1 ( x ) + ρ m T ( x ; θ m )

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值