统计学习方法——提升方法(一)

提升方法(一)

提升方法是一种常用的统计学习方法,通过改变训练样本的权重,学习多个分类器,将这些分类器进行线性组合,提高分类性能

AdaBoost算法

提升算法的基本思路
  • 思想
    三个臭皮匠顶个诸葛亮。
  • 强可学习
    在概率近似正确(PAC)学习的框架中,一个概念(一个类),如果存在一个多项式的学习算法能够学习它,并且准确率高,就称这个概念是强可学习的。
  • 弱可学习
    一个概念,如果存在一个多项式的学习算法能够学习它,学习的正确率仅比随机猜测略好,那么就称这个概念是弱可学习的。

在PAC框架下,一个概念是强可学习的充要条件是这个概念是弱可学习的。

AdaBoost算法
  • 输入:训练数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x N , y N ) } T=\left\{ {\left( {{x_1},{y_1}} \right),\left( {{x_2},{y_2}} \right), \cdots ,\left( {{x_N},{y_N}} \right)} \right\} T={(x1,y1),(x2,y2),,(xN,yN)},其中 x i ∈ X ⊆ R n , y i ∈ Y = { − 1 , + 1 } x_i\in \mathcal X \subseteq {R^n},y_i\in \mathcal Y=\left\{ { - 1, + 1} \right\} xiXRnyiY={1,+1},弱学习算法
  • 输出:最终分类器 G ( x ) G\left(x\right) G(x)
  • 过程
    • 初始化训练数据的权值分布
      D 1 = ( w 11 , ⋯   , w 1 i , ⋯   , w 1 N ) , w 1 i = 1 N , i = 1 , 2 , ⋯   , N {D_1} = \left( {{w_{11}}, \cdots ,{w_{1i}}, \cdots ,{w_{1N}}} \right),{w_{1i}} = \frac{1}{N},i = 1,2, \cdots ,N D1=(w11,,w1i,,w1N),w1i=N1,i=1,2,,N
      假设训练数据集具有均匀的权值分布,即每个训练样本在基本分类器的学习中作用相同,保证能在原始数据上学习基本分类器 G 1 ( x ) G_1\left(x\right) G1(x)
    • m = 1 , 2 , ⋯   , M m=1,2,\cdots,M m=1,2,,M
      反复学习基本分类器,共执行 M M M轮。
      • 使用具有权值分布 D m D_m Dm的训练数据集学习,得到基本分类器:
        G m ( x ) : X → { − 1 , + 1 } {G_m}\left( x \right):\mathcal X \to \left\{ { - 1, + 1} \right\} Gm(x):X{1,+1}
        使用当前分布 D m D_m Dm加权后的训练集学习基本分类器 G m ( x ) G_m\left(x\right) Gm(x)
      • 计算 G m ( x ) {G_m}\left( x \right) Gm(x)在训练数据集上的分类误差率:
        e m = P ( G m ( x i ) ≠ y i ) = ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) {e_m} = P\left( {{G_m}\left( {{x_i}} \right) \ne {y_i}} \right) = \sum\limits_{i = 1}^N {{w_{mi}}I\left( {{G_m}\left( {{x_i}} \right) \ne {y_i}} \right)} em=P(Gm(xi)̸=yi)=i=1NwmiI(Gm(xi)̸=yi)
        其中 w m i w_{mi} wmi为第 m m m轮中第 i i i个实例的权值。
        计算分类器 G m ( x ) G_m\left(x\right) Gm(x)在加权训练数据集上的分类误差率。
      • 计算 G m ( x ) {G_m}\left( x \right) Gm(x)的系数
        α m = 1 2 log ⁡ 1 − e m e m {\alpha _m} = \frac{1}{2}\log \frac{{1 - {e_m}}}{{{e_m}}} αm=21logem1em
        这里的对数为自然对数。
        计算分类器 G m ( x ) {G_m}\left( x \right) Gm(x)在最终分类器中的重要性。
      • 更新训练数据集的权值分布
        D m + 1 = ( w m + 1 , 1 , ⋯   , w m + 1 , i , ⋯ w m + 1 , N ) {D_{m + 1}} = \left( {{w_{m + 1,1}}, \cdots ,{w_{m + 1,i}}, \cdots {w_{m + 1,N}}} \right) Dm+1=(wm+1,1,,wm+1,i,wm+1,N)
        w m + 1 , i = w m i Z m exp ⁡ ( − α m y i G m ( x i ) ) , i = 1 , 2 , ⋯   , N {w_{m + 1,i}} = \frac{{{w_{mi}}}}{{{Z_m}}}\exp \left( { - {\alpha _m}{y_i}{G_m}\left( {{x_i}} \right)} \right),i = 1,2, \cdots ,N wm+1,i=Zmwmiexp(αmyiGm(xi)),i=1,2,,N
        这里, Z m Z_m Zm是规范化因子
        Z m = ∑ i = 1 N w m i exp ⁡ ( − α m y i G m ( x i ) ) {Z_m} = \sum\limits_{i = 1}^N {{w_{mi}}\exp \left( { - {\alpha _m}{y_i}{G_m}\left( {{x_i}} \right)} \right)} Zm=i=1Nwmiexp(αmyiGm(xi))
        它使 D m + 1 D_{m+1} Dm+1成为一个概率分布。
        更新训练数据的权值分布:
        w m + 1 , i = { w m i Z m e − α m , G m ( x i ) = y i w m i Z m e α m , G m ( x i ) ≠ y i {w_{m + 1,i}} = \left\{ \begin{array}{l} \frac{{{w_{mi}}}}{{{Z_m}}}{e^{ - {\alpha _m}}},{G_m}\left( {{x_i}} \right) = {y_i}\\ \frac{{{w_{mi}}}}{{{Z_m}}}{e^{{\alpha _m}}},{G_m}\left( {{x_i}} \right) \ne {y_i} \end{array} \right. wm+1,i={Zmwmieαm,Gm(xi)=yiZmwmieαm,Gm(xi)̸=yi
        误分类的样本权值扩大。
    • 构建基本分类器的线性组合
      f ( x ) = ∑ m = 1 M α m G m ( x ) f\left( x \right) = \sum\limits_{m = 1}^M {{\alpha _m}{G_m}\left( x \right)} f(x)=m=1MαmGm(x)
      得到最终分类器:
      G ( x ) = s i g n ( f ( x ) ) = s i g n ( ∑ m = 1 M α m G m ( x ) ) G\left( x \right) = sign\left( {f\left( x \right)} \right) = sign\left( {\sum\limits_{m = 1}^M {{\alpha _m}{G_m}\left( x \right)} } \right) G(x)=sign(f(x))=sign(m=1MαmGm(x))
      线性组合 f ( x ) f\left(x\right) f(x)实现 M M M个分类器的加权表决。
AdaBoost算例

给定如下所示的训练数据集,假设弱分类器由 x &gt; v x&gt;v x>v x &lt; v x&lt;v x<v产生,其阈值 v v v使该分类器在训练数据集上分类误差率最低。

序号12345678910
x x x0123456789
y y y111-1-1-1111-1

解:

  • 初始化数据权值分布( m = 1 m=1 m=1):
    D 1 = ( 0.1 , 0.1 , 0.1 , 0.1 , 0.1 , 0.1 , 0.1 , 0.1 , 0.1 , 0.1 ) D_1=\left(0.1,0.1,0.1,0.1,0.1,0.1,0.1,0.1,0.1,0.1\right) D1=(0.1,0.1,0.1,0.1,0.1,0.1,0.1,0.1,0.1,0.1)
    • D 1 D_1 D1的训练集上阈值 v v v 2.5 2.5 2.5时分类误差率最低,基本分类器为:
      G 1 ( x ) = { 1 , x &lt; 2.5 − 1 , &ThickSpace; x &gt; 2.5 {G_1}\left( x \right) = \left\{ \begin{array}{l} 1,\quad x &lt; 2.5\\ {- 1},\;x &gt; 2.5 \end{array} \right. G1(x)={1,x<2.51,x>2.5
    • G 1 ( x ) {G_1}\left( x \right) G1(x)的训练误差率为: e 1 = ( G 1 ( x i ) ≠ y i ) = 0.3 e_1=\left( {{G_1}\left( {{x_i}} \right) \ne {y_i}} \right)=0.3 e1=(G1(xi)̸=yi)=0.3
    • 计算 G 1 ( x ) {G_1}\left( x \right) G1(x)的系数: α 1 = 1 2 log ⁡ 1 − e 1 e 1 = 0.4236 {\alpha _1} = \frac{1}{2}\log \frac{{1 - {e_1}}}{{{e_1}}}=0.4236 α1=21loge11e1=0.4236
    • 更新权重分布:
      w 2 i = w 1 i Z 1 exp ⁡ ( − α 1 y i G 1 ( x i ) ) , i = 1 , 2 , ⋯ &ThinSpace; , 10 {w_{2i}} = \frac{{{w_{1i}}}}{{{Z_1}}}\exp \left( { - {\alpha _1}{y_i}{G_1}\left( {{x_i}} \right)} \right),i = 1,2, \cdots ,10 w2i=Z1w1iexp(α1yiG1(xi)),i=1,2,,10
      Z 1 = ∑ i = 1 N w 1 i exp ⁡ ( − α 1 y i G 1 ( x i ) ) {Z_1} = \sum\limits_{i = 1}^N {{w_{1i}}\exp \left( { - {\alpha _1}{y_i}{G_1}\left( {{x_i}} \right)} \right)} Z1=i=1Nw1iexp(α1yiG1(xi))
      D 2 = ( 0.0715 , 0.0715 , 0.0715 , 0.0715 , 0.0715 , 0.0715 , 0.1666 , 0.1666 , 0.1666 , 0.0715 ) D_2=\left(0.0715,0.0715,0.0715,0.0715,0.0715,0.0715,0.1666,0.1666,0.1666,0.0715\right) D2=(0.0715,0.0715,0.0715,0.0715,0.0715,0.0715,0.1666,0.1666,0.1666,0.0715)
      f 1 ( x ) = 0.4236 G 1 ( x ) f_1\left(x\right)=0.4236G_1\left(x\right) f1(x)=0.4236G1(x)
  • 计算 m = 2 m=2 m=2
  • 计算 m = 3 m=3 m=3
    此时:
    f 3 ( x ) = 0.4236 G 1 ( x ) + 0.6496 G 2 ( x ) + 0.7514 G 3 ( x ) f_3\left(x\right)=0.4236G_1\left(x\right)+0.6496G_2\left(x\right)+0.7514G_3\left(x\right) f3(x)=0.4236G1(x)+0.6496G2(x)+0.7514G3(x)
    s i g n [ f 3 ( x ) ] sign\left[f_3\left(x\right)\right] sign[f3(x)]在训练集上误分类点数为 0 0 0
  • 最终分类器:
    G ( x ) = s i g n [ f 3 ( x ) ] = s i g n [ 0.4236 G 1 ( x ) + 0.6496 G 2 ( x ) + 0.7514 G 3 ( x ) ] G\left(x\right)=sign\left[f_3\left(x\right)\right]=sign\left[0.4236G_1\left(x\right)+0.6496G_2\left(x\right)+0.7514G_3\left(x\right)\right] G(x)=sign[f3(x)]=sign[0.4236G1(x)+0.6496G2(x)+0.7514G3(x)]
参考文献

《统计学习方法》

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
李航的《统计学习方法》是一本经典的统计学习教材,其中涵盖了统计学习的基本理论和方法。该书主要介绍了统计学习的三要素:模型、策略和算法。引用提到,训练集用来训练模型,验证集用来选择模型,测试集用于对学习方法的评估。这些三要素是统计学习方法的基础。引用进一步解释了统计学习的目标,即通过构建概率统计模型对数据进行准确的预测与分析,并提高学习效率。引用提到了一种常用的统计学习方法,即提升(boosting),它通过改变训练样本的权重,学习多个弱分类器,并将它们线性组合成一个强分类器,以提高分类的性能。 总结起来,李航的《统计学习方法》笔记主要围绕统计学习的基本理论和方法展开,介绍了统计学习的三要素、目标和提升等常用方法。这本书对于学习统计学习的人来说是一本非常有价值的参考资料。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [统计学习方法——李航 笔记](https://blog.csdn.net/qq_45383347/article/details/110482540)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [李航《统计学习方法学习笔记](https://blog.csdn.net/liuzuoping/article/details/98840923)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值