机器学习 算法基础 六 提升 Adaboost

  • 什么是Adaboost?
    AdaBoost算法: 通过迭代弱分类器而产生最终的强分类器的算法,可以理解为在弱分类器之上增加了权重配置,使误差率小的分类器拥有更高的权重。


我们已经学习过决策树这种分类器,并且知道可以通过随机森林的方式完成样本加权、分类器加权,从而使得由弱分类器得到强分类器Adaboost就是分类器加权的一种方式,即多个分类器的集成。

提升概念

在这里插入图片描述

提升算法

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

  • 预测值: F ( x i ) F(x_i) F(xi),实际值: y i y_i yi,二者差值就是一个残差
  • 将所有残差累加:
    当 L ( F ) = 1 m ∑ i = 1 m ( F ( x i ) − y i ) 2 当L(F)=\frac{1}{m}\sum_{i=1}^m(F(x_i)-y_i)^2 L(F)=m1i=1m(F(xi)yi)2
    ∂ L ∂ F = 2 m ∑ 1 = i m ( F ( x i ) − y i ) \frac{\partial L}{\partial F}=\frac{2}{m}\sum_{1=i}^m(F(x_i)-y_i) FL=m21=im(F(xi)yi)
  • 实际的损失函数不见得是这个,所以称为伪残差

参照牛顿法(梯度下降法)可知,使用一阶导绕不过去的 γ \gamma γ学习率。

123t-1
T T 1 ( x ) T_1(x) T1(x) T 2 ( x ) T_2(x) T2(x) T 3 ( x ) T_3(x) T3(x) T t − 1 ( x ) T_{t-1}(x) Tt1(x)
权值 α 1 \alpha_1 α1 α 2 \alpha_2 α2 α 3 \alpha_3 α3 α t − 1 \alpha_{t-1} αt1

计算第i个样本的预测值 y i y_i yi,输入样本 x i x_i xi
x i ⟶ α 1 T 1 ( x i ) + α 2 T 2 ( x i ) + α 3 T 3 ( x i ) + . . . + α t − 1 T t − 1 ( x i ) = y ^ i x_i \longrightarrow \alpha_1T_1(x_i)+\alpha_2T_2(x_i)+\alpha_3T_3(x_i)+...+\alpha_{t-1}T_{t-1}(x_i)=\hat{y}_i xiα1T1(xi)+α2T2(xi)+α3T3(xi)+...+αt1Tt1(xi)=y^i

样本预测值
x ( 1 ) x^{(1)} x(1) y ^ t − 1 ( 1 ) \hat{y}_{t-1}^{(1)} y^t1(1)
x ( 2 ) x^{(2)} x(2) y ^ t − 1 ( 2 ) \hat{y}_{t-1}^{(2)} y^t1(2)
x ( 3 ) x^{(3)} x(3) y ^ t − 1 ( 3 ) \hat{y}_{t-1}^{(3)} y^t1(3)
x ( m ) x^{(m)} x(m) y ^ t − 1 ( m ) \hat{y}_{t-1}^{(m)} y^t1(m)

在已知样本和预测值 T ( t − 1 ) , y ^ ( t − 1 ) T(t-1),\hat{y}_{(t-1)} T(t1),y^(t1)的前提下,如何算 T ( x ) 和 α t T(x)和\alpha_t T(x)αt。考虑使用二阶导信息。

在这里插入图片描述
∂ J ∂ f t = ∑ i = 1 n ( g i + h i f t ( x i ) ) + ∂ Ω ∂ f t \frac{\partial J}{\partial f_t}=\sum_{i=1}^n(g_i+h_if_t(x_i))+\frac{\partial \Omega}{\partial f_t} ftJ=i=1n(gi+hift(xi))+ftΩ

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

Adaboost

在这里插入图片描述
在这里插入图片描述

通 常 e m < 0.5 通常e_m < 0.5 em<0.5 e m 越 小 , α m 越 大 。 谁 的 误 差 率 越 小 , 谁 的 权 值 就 越 大 。 ( e m = 0.5 → α m = 0 ) e_m越小,\alpha_m越大。谁的误差率越小,谁的权值就越大。(e_m=0.5 \rightarrow \alpha_m=0) emαmem=0.5αm=0

在这里插入图片描述

有了 w m + 1 , i w_{m+1, i} wm+1,i,就可以算 G m + 1 G_{m+1} Gm+1,就可以算 w m + 2 w_{m+2} wm+2

在这里插入图片描述

举例

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

Adaboost误差上限

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

AdaBoost总结

在这里插入图片描述

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值