由adboost, gbdt到xgboost,从目标函数说起

本文详细介绍了Adaboost、GBDT和XGBoost的原理,特别是它们的目标函数。Adaboost通过指数损失函数和基分类器权重更新样本权重。GBDT使用负梯度来拟合CART回归树,适用于各种损失函数。XGBoost则引入正则化项,优化二次目标函数,实现更高效训练。文章探讨了为何GBDT采用负梯度和XGBoost的分裂规则,并提及了回归和多分类问题的处理方法。
摘要由CSDN通过智能技术生成

Adboost

原理

Adboost是利用前一轮弱学习器的误差率来更新训练集的权重,这样一轮轮的迭代下去,简单的说是Boosting框架+任意基学习器算法+指数损失函数。它是加法模型,学习的是前向分布学习算法,损失函数为指数函数的分类问题;另外,其基分类器可以为任何学习器,使用最广泛的是决策树和神经网络;对于决策树,使用CART分类回归树

目标函数

损失函数为指数函数,即定义损失函数为:
L = a r g m i n ⏟ a , G ∑ i = 1 m e x p ( − y i f k ( x ) ) − − − ( 1 ) L = \underset{a,G}{ \underbrace{arg min}}\sum_{i=1}^mexp(-y_if_k(x)) ---(1) L=a,G argmini=1mexp(yifk(x))1
其中, f k ( x ) f_k(x) fk(x)为第k轮的学习器 f k ( x ) = ∑ i = 1 k α i G i ( x ) f_{k}(x) = \sum\limits_{i=1}^{k}\alpha_iG_{i}(x) fk(x)=i=1kαiGi(x), G(x)为基分类器, α \alpha α为每个基分类器的权重,m为样本数。
建立第k个基分类器时:
( α k , G k ( x ) ) = a r g    m i n    ⏟ α , G ∑ i = 1 m e x p [ ( − y i ) ( f k − 1 ( x ) + α G ( x ) ) ] = a r g    m i n    ⏟ α , G ∑ i = 1 m w k i ′ e x p [ − y i α G ( x ) ] (\alpha_k, G_k(x)) = \underbrace{arg\;min\;}_{\alpha, G}\sum\limits_{i=1}^{m}exp[(-y_i) (f_{k-1}(x) + \alpha G(x))] \\ = \underbrace{arg\;min\;}_{\alpha, G}\sum\limits_{i=1}^{m}w_{ki}'exp[-y_i\alpha G(x)] (αk,Gk(x))=α,G argmini=1mexp[(yi)(fk1(x)+αG(x))]=α,G argmini=1mwkiexp[yiαG(x)]
注意此时对于单个基分类器 G k ( x ) G_k(x) Gk(x)而言,对任意的 α \alpha α
G k ( x ) = a r g    m i n    ⏟ G ∑ i = 1 m w k i ′ I ( y i ≠ G ( x i ) ) − − − ( 2 ) G_k(x) = \underbrace{arg\;min\;}_{G}\sum\limits_{i=1}^{m}w_{ki}'I(y_i \neq G(x_i)) --- (2) Gk(x)=G argmini=1mwkiI(yi=G(xi))2
继续公式(adboost-1)
a r g    m i n    ⏟ α , G ∑ i = 1 m w k i ′ e x p [ − y i α G ( x ) ] = a r g    m i n    ⏟ α ∑ y i = G k

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值