统计学习方法学习笔记7——提升方法(集成学习)

提升方法

前言

章节目录

  1. 提升方法AdaBoost算法
    1. 提升方法的基本思路
    2. AdaBoost算法
    3. AdaBoost的例子
  2. AdaBoost算法的训练误差分析
  3. AdaBoost算法的解释
    1. 前向分步算法
    2. 前向分布算法与AdaBoost
  4. 提升树
    1. 提升树模型
    2. 提升树算法
    3. 梯度提升

导读

在这里插入图片描述

  • 可能会有疑问,为什么支持向量机前置在这一章之前,可以参考本章的第一个参考文献[^1],Yoav Freund和Robert Schapire因此获得了2003年的哥德尔奖, 本书中关于误差率的表述与该文献是一致的, PRML中则对分类误差率进行了归一化。
  • 在训练误差分析部分有这样一句AdaBoost算法不需要知道下界$\gamma$,这正是Freund与Schapire设计AdaBoost时所考虑的。如果对这句没有sense,了解下历史。书中也讲到1988年Kearns和Valiant提出"强可学习"和"弱可学习"的概念,并提出了一个问题这两种复杂性类别是否等价。Schapire给出了答案,是等价的,并给出了算法,这是最早的Boost,但是这个算法需要知道学习器的误差界。后来AdaBoost提出,不再需要知道误差界等信息。
  • 关于AdaBoost和SVM的联系,主要在函数间隔的这个概念上文献[^1]和本书CH02CH07中内容合并理解,本文后面在算法的解释部分会添加一个和SVM关系的对比摘要一下文献中的理解。这篇文章在介绍AdaBoost和SVM的关系的时候, 引用了三篇文献,在CH07中都有引用,是经典的SVM文献。
  • 间隔包含了分类正确性与确信度的含义。
  • 如果看过林轩田老师的课程(只需看第一课),可能对hypothesis这个概念迷糊,没有sense。那可以翻下前面提到的这个文章,可能会对这些概念的理解有帮助。另外文章中有提到VC维,用来度量hypotheses的复杂度。
  • 另外一篇文献,推荐下RE Schapire的文章[^2]关于间隔的理解
  • AdaBoost的两个性质:
    1. 能在学习过程中不断减少训练误差
    2. 训练误差是以指数速率下降的
  • 基函数和基本分类器不是一个概念, 在加法模型部分有提到。
  • 这章里面提到了,这样一句, 大多数的提升方法都是改变训练数据的概率分布(训练数据的权值分布),针对不同的训练数据分布调用弱学习算法学习一系列弱分类器, 这里改变训练数据的权值分布,可能不是很容易理解, 字面理解好像是给数据乘了系数, 实际上这个权值分布在计算分类误差率的时候才用到,通过 α m = 1 2 log ⁡ 1 − e m e m \alpha_m=\frac{1}{2}\log\frac{1-e_m}{e_m} αm=21logem1em生成了对应的弱分类器的系数。另外, 这个权值分布在更新的时候, 做了归一化, 使他满足了概率分布的条件。
  • 提升树针对不同的问题, 选择不同的损失函数:指数损失(分类问题),平方损失(回归问题), 一般损失(一般问题), 针对一般问题, 优化方法采用梯度提升就有了GBDT。
  • 书中讲的AdaBoost是用在二分类上, 和SVM的二分类差不多, 算法8.1中有用到符号函数。公式8.4也用到了 Y = { 1 , − 1 } Y=\{1,-1\} Y={1,1}的性质, 和感知机部分的应用类似。
  • 在sklearn中有引用书中参考文献5[^7],sklearn中的实现支持多分类, 引用了参考文献[^3], 本书中引用了更早的一个实现多分类的文献[^4]
  • 提升方法最初用来解决分类问题,这里面算法8.1描述的就是二分类的算法,
  • 本章最后介绍了提升树, 关于各种树相关的算法关系, 林轩田有页slides, 可以参考。[^5]
  • 算法8.3用来求回归问题的提升树, 注意拟合残差这个内容的理解,可以理解例子8.2
  • 关于参考文献9[^6], 这个文章,简要说两句, 提到了Bregman distance, 这篇文章的编辑是Bengio
  • Boosting不容易过拟合

加法模型+前向分步算法

回顾这一章其实可以划分成三个阶段:

  1. 1️⃣加法模型 + 指数损失[特例,Adaboost又进一步是特例]
  2. 2️⃣加法模型 + 平方损失[特例]
  3. 3️⃣加法模型 + 一般损失

再复习下,之前李航老师讲到的:

统计学习方法之间的不同,主要来自器模型、策略、算法的不同。确定了模型、策略、算法,统计学习的方法也就确定了。这也就是将其称为统计学习三要素的原因。

再结构化一下这三个部分,好好理解:

  • 模型:需要学习的条件概率分布或者决策函数
  • 策略:按照什么样的准则学习或选择最优的模型。统计学习的目标在于从假设空间中选取最优模型。
    • 经验风险最小化( R e m p R_{emp} Remp)
    • 结构风险最小化( R s r m R_{srm} Rsrm)
  • 算法:考虑用什么样的方法求解最优模型,这时统计学习问题归结为最优化问题,统计学习方法的算法称为求解最优化问题的算法。

Boosting方法是一种常用的统计学习方法,应用广泛且有效

  • 【在分类问题中】改变训练样本权重,学习多个分类器
  • 线性组合

提升方法AdaBoost算法

提升方法的基本思路

概率近似正确(PAC, Probably approximately correct)

在PAC学习框架下,一个概念是强可学习的充分必要条件是这个概念是弱可学习的。
两个问题

  1. 在每一轮如何改变训练数据的权值或者概率分布
  2. 如何将弱分类器组合成一个强分类器

Adaboost解决方案:

  1. 提高前一轮被分错的分类样本的权值,降低被正确分类的样本的权值
  2. 加权多数表决的方法

Adaboost算法

算法8.1
  • 输入:训练数据集KaTeX parse error: Expected 'EOF', got '\cal' at position 49: …,y_N)\}, x\in \̲c̲a̲l̲ ̲X\sube \R^n, 弱学习方法
  • 输出:最终分类器 G ( x ) G(x) G(x)
步骤
  1. 初始化训练数据的权值分布 D 1 = ( w 11 , ⋯   , w 1 i , ⋯   , w 1 N , w 1 i = 1 N ) ​ D_1=(w_{11},\cdots,w_{1i},\cdots,w_{1N},w_{1i}=\frac{1}{N})​ D1=(w11,,w1i,,w1N,w1i=N1)
  2. m = 1,2, M
    1. G m ( x ) : X − > − 1 , + 1 G_m(x):X->{-1,+1} Gm(x):X>1,+1
    2. G m G_m Gm在训练集上的分类误差率 e m = ∑ i = 1 N P ( G m ( x i ) ≠ y i ) = ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) e_m=\sum_{i=1}^{N}P(G_m(x_i)\ne y_i)=\sum_{i=1}^{N}w_{mi}I(G_m(x_i)\ne y_i) em=i=1NP(Gm(xi)̸=yi)=i=1NwmiI(Gm(xi)̸=yi)
    3. 计算 G m ( x ) G_m(x) Gm(x)的系数, α m = 1 2 l o g 1 − e m e m \alpha_m=\frac{1}{2}log\frac{1-e_m}{e_m} αm=21logem1em,自然对数
    4. w m + 1 , i = w m i Z m e x p ( − α m y i G m ( x i ) ) ​ w_{m+1,i}=\frac{w_{mi}}{Z_m}exp(-\alpha_my_iG_m(x_i))​ wm+1,i=Zmwmiexp(αmyiGm(xi))
    5. Z m = ∑ i = 1 N w m i e x p ( − α m y i G m ( x i ) ) Z_m=\sum_{i=1}^Nw_{mi}exp(-\alpha_my_iG_m(x_i)) Zm=i=1Nwmiexp(αmyiGm(xi))
  3. f ( x ) = ∑ m = 1 M α m G m ( x ) f(x)=\sum_{m=1}^M\alpha_mG_m(x) f(x)=m=1MαmGm(x)
  4. 最终分类器 G ( x ) = s i g n ( f ( x ) ) = s i g n ( ∑ m = 1 M α m G m ( x ) ) G(x)=sign(f(x))=sign(\sum_{m=1}^M\alpha_mG_m(x)) G(x)=sign(f(x))=sign(m=1MαmGm(x))

从算法8.1的输入可以看出来,AdaBoost是个集成学习算法, 因为在他的输入中包含了弱学习算法

注意这里面有个描述

使用具有权值分布 D m D_m Dm的训练数据集

这个怎么理解,是改变了数据么?

  • 这里不是的
  • 弱分类器的分类准则是错误率 e m = P ( G m ( x i ) ≠ y i ) = ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) e_m=P(G_m(x_i)\ne y_i)=\sum_{i=1}^{N}w_{mi}I(G_m(x_i)\ne y_i) em=P(Gm(xi)̸=yi)=i=1NwmiI(Gm(xi)̸=yi)
  • 弱分类器的分类准则是错误率 e m = ∑ i = 1 N P ( G m ( x i ) ≠ y i ) = ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) ​ e_m=\color{red}\sum_{i=1}^{N}\color{black}P(G_m(x_i)\ne y_i)=\sum_{i=1}^{N}w_{mi}I(G_m(x_i)\ne y_i)​ em=i=1NP(Gm(xi)̸=yi)=i=1NwmiI(Gm(xi)̸=yi)
  • 以上这两条再考虑下
  • 每次学习用到的数据集没有变,划分方式也没有变(比如阈值分类器中的分类点的选取方式),变是评价每个划分错误的结果。
  • 不同的权值分布上,不同样本错分对评价结果的贡献不同,分类器中分类错误的会被放大,分类正确的系数会减小,错误和正确的系数比值为 e 2 α m = 1 − e m e m e^{2\alpha_m}=\frac{1-e_m}{e_m} e2αm=em1em,这个比值是分类器分类正确的几率( o d d s odds odds),关于几率在CH06中有讲到,这也是为什么在1999年的时候Schapire的文章中开篇用Horse racing gambler来引入Boosting,几率就是个源自赌博的概念。
  • 书中对这点也有解释:误分类样本在下一轮学习中起更大的作用。不改变所给的训练数据,而不断改变训练数据权值的分布,似的训练数据在基本分类器的学习中起不同的作用, 这是AdaBoost的一个特点。

AdaBoost例子

例子8.1

数据见data_8-1.txt

弱分类器选为阈值分类器,通过阈值将数据划分成两部分,标准是分类误差率最低。其实这个弱分类器就是决策树桩。

需要确定两个参数:

  1. 阈值选在哪里
  2. 划分的两部分类别指定方式

下面显示m=1,2,3时弱分类器的选择过程

m=1
在这里插入图片描述在这里插入图片描述m=2
在这里插入图片描述
在这里插入图片描述
m=3
在这里插入图片描述
在这里插入图片描述

数据显示了每一轮计算的结果

x0123456789
y111-1-1-1111-1
d10.10.10.10.10.10.10.10.10.10.1
G1111-1-1-1-1-1-1-1
d20.071430.071430.071430.071430.071430.071430.166660.166660.166660.07143
f10.42360.42360.4236-0.4236-0.4236-0.4236-0.4236-0.4236-0.4236-0.4236
sign_f11.01.01.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0
G2111111111-1
d30.04550.04550.04550.16670.16670.16670.10610.10610.10610.0455
f21.07321.07321.07320.2260.2260.2260.2260.2260.226-1.0732
sign_f21.01.01.01.01.01.01.01.01.0-1.0
G3-1-1-1-1-1-11111
d40.1250.1250.1250.10190.10190.10190.06480.06480.06480.125
f30.32180.32180.3218-0.5254-0.5254-0.52540.97740.97740.9774-0.3218
sign_f31.01.01.0-1.0-1.0-1.01.01.01.0-1.0

在这里插入图片描述
在这里插入图片描述
通过这个图来解释什么是加法模型

  • 同样的数据集T,配合不同的权值分布,拿到不同的基分类器G
  • 误差率的定义将权值系数分布与基分类器的结果联系在了一起
  • 权值分布D的宽度代表分类器的误差率相对大小,D1➡️D3递减
  • G的宽度代表最终模型中该分类器对应的系数大小,G1➡️G3递增
  • 在模型的最终表示中有个 ∑ \sum

TODO:

增加不同轮次的样本权重的可视化。

AdaBoost 误差分析

这部分可以看下张潼老师的论文。其中提到这样一句, The basic idea is to minimize a convex upper bound of the classification error function I(p,y).

这样就自然的过度到了后面的AdaBoost的另外一种解释, 指数损失。

注意,张潼老师的论文里面提到了指示函数是error function。作为指示函数, 这里条件判断的是是否相等

书中的定理8.1如下描述

AdaBoost算法最终分类器的训练误差界为
1 N ∑ i = 1 N I ( G ( x i ) ≠ y i ) ≤ 1 N ∑ i exp ⁡ ( − y i f ( x i ) ) = ∏ m Z m \frac{1}{N}\sum\limits_{i=1}\limits^N I(G(x_i)\neq y_i)\le\frac{1}{N}\sum\limits_i\exp(-y_i f(x_i))=\prod\limits_m Z_m N1i=1NI(G(xi)̸=yi)N1iexp(yif(xi))=mZm
这个的意思就是说指数损失是0-1损失的上界,然后通过递推得到了归一化系数的连乘。
在这里插入图片描述

AdaBoost 算法的解释

加法模型, 指数损失, 前向分步, 二分类。

前向分步算法

算法8.2

输入:训练数据集KaTeX parse error: Expected 'EOF', got '\cal' at position 49: …y_N)}, x_i \in \̲c̲a̲l̲ ̲X \sube R^n, y_…, 损失函数 L ( y , f ( x ) ) L(y, f(x)) L(y,f(x)); 基函数集合 { b ( x ; γ ) } \{b(x;\gamma)\} {b(x;γ)}

输出:加法模型 f ( x ) f(x) f(x)

步骤:

  1. 初始化 f 0 ( x ) = 0 f_0(x)=0 f0(x)=0

  2. m = 1 , 2 , … , M m=1,2,\dots,M m=1,2,,M

  3. 极小化损失函数
    ( β m , γ m ) = arg ⁡ min ⁡ β , γ ∑ i = 1 N L ( y i , f m − 1 ( x i ) + β b ( x i ; γ ) ) (\beta_m,\gamma_m)=\arg\min \limits_ {\beta,\gamma}\sum_{i=1}^NL(y_i, f_{m-1}(x_i)+\beta b(x_i;\gamma)) (βm,γm)=argβ,γmini=1NL(yi,fm1(xi)+βb(xi;γ))

  4. 更新
    f m ( x ) = f m − 1 ( x ) + β m b ( x ; γ m ) f_m(x)=f_{m-1}(x)+\beta _mb(x;\gamma_m) fm(x)=fm1(x)+βmb(x;γm)

  5. 得到加法模型
    f ( x ) = f M ( x ) = ∑ m = 1 M β m b ( x ; γ m ) f(x)=f_M(x)=\sum_{m=1}^M\beta_m b(x;\gamma_m) f(x)=fM(x)=m=1Mβmb(x;γm)

提升树

提升方法实际采用加法模型(即基函数的线性组合)与前向分步算法。

提升树模型

以决策树为基函数的提升方法称为提升树。

决策树 T ( x ; Θ m ) T(x;\Theta_m) T(x;Θm)

提升树模型可以表示成决策树的加法模型
f M ( x ) = ∑ m = 1 M T ( x ; Θ m ) f_M(x)=\sum_{m=1}^MT(x;\Theta_m) fM(x)=m=1MT(x;Θm)
上面这个公式用回归问题理解挺好理解(不等式求和), 后面给了例子。

提升树算法

不同的问题, 主要区别在于损失函数不同:

  1. 平方误差用于回归问题
  2. 指数损失用于分类问题
算法8.3

回归问题的提升树算法

输入:训练数据集

输出:提升树 f M ( x ) f_M(x) fM(x)

步骤:

  1. 初始化 f 0 ( x ) = 0 f_0(x)=0 f0(x)=0
  2. m = 1 , 2 , … , M m=1,2,\dots,M m=1,2,,M
    1. 计算残差
      r m i = y i − f m − 1 ( x i ) , i = 1 , 2 , … , N r_{mi}=y_i-f_{m-1}(x_i), i=1,2,\dots,N rmi=yifm1(xi),i=1,2,,N
    2. 拟合残差 r m i r_{mi} rmi学习一个回归树,得到 T ( x ; Θ m ) T(x;\Theta_m) T(x;Θm)
    3. 更新 f m ( x ) = f m − 1 ( x ) + T ( x ; Θ m ) f_m(x)=f_{m-1}(x)+T(x;\Theta_m) fm(x)=fm1(x)+T(x;Θm)
  3. 得到回归问题提升树
    f ( x ) = f M ( x ) = ∑ m = 1 M T ( x ; Θ m ) f(x)=f_M(x)=\sum_{m=1}^MT(x;\Theta_m) f(x)=fM(x)=m=1MT(x;Θm)

梯度提升(GBDT)

算法8.4

输入: 训练数据集KaTeX parse error: Expected 'EOF', got '\cal' at position 50: …y_N)}, x_i \in \̲c̲a̲l̲ ̲x \sube \R^n, y…;损失函数 L ( y , f ( x ) ) L(y,f(x)) L(y,f(x))
输出:回归树 f ^ ( x ) \hat{f}(x) f^(x)
步骤:

  1. 初始化
    f 0 ( x ) = arg ⁡ min ⁡ c ∑ i = 1 N L ( y i , c ) f_0(x)=\arg\min\limits_c\sum_{i=1}^NL(y_i, c) f0(x)=argcmini=1NL(yi,c)

  2. m = 1 , 2 , … , M m=1,2,\dots,M m=1,2,,M

  3. i = 1 , 2 , … , N i=1,2,\dots,N i=1,2,,N
    r m i = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) r_{mi}=-\left[\frac{\partial L(y_i, f(x_i))}{\partial f(x_i)}\right]_{f(x)=f_{m-1}(x)} rmi=[f(xi)L(yi,f(xi))]f(x)=fm1(x)

  4. r m i r_{mi} rmi拟合一个回归树,得到第 m m m棵树的叶节点区域 R m j , j = 1 , 2 , … , J R_{mj}, j=1,2,\dots,J Rmj,j=1,2,,J

  5. j = 1 , 2 , … , J j=1,2,\dots,J j=1,2,,J
    c m j = arg ⁡ min ⁡ c ∑ x i ∈ R m j L ( y i , f m − 1 ( x i ) + c ) c_{mj}=\arg\min_c\sum_{xi\in R_{mj}}L(y_i,f_{m-1}(x_i)+c) cmj=argcminxiRmjL(yi,fm1(xi)+c)

  6. 更新
    f m ( x ) = f m − 1 ( x ) + ∑ j = 1 J c m j I ( x ∈ R m j ) f_m(x)=f_{m-1}(x)+\sum_{j=1}^Jc_{mj}I(x\in R_{mj}) fm(x)=fm1(x)+j=1JcmjI(xRmj)

  7. 得到回归树
    f ^ ( x ) = f M ( x ) = ∑ m = 1 M ∑ j = 1 J c m j I ( x ∈ R m j ) \hat{f}(x)=f_M(x)=\sum_{m=1}^M\sum_{j=1}^Jc_{mj}I(x\in R_{mj}) f^(x)=fM(x)=m=1Mj=1JcmjI(xRmj)

这个算法里面注意,关键是用损失函数的负梯度,在当前模型的值作为回归问题提升树算法中的残差近似值,拟合回归树

AdaBoost与SVM的关系

TODO: 训练数据集与测试数据集的误差率关系。

摘要文献中对AdaBoost和SVM的理解。

∣ x ∣ 1 = ∑ i = 1 N ∣ x ∣ |x|_1=\sum_{i=1}^N|x| x1=i=1Nx,向量元素绝对值的和

∣ x ∣ ∞ = max ⁡ i ∣ x i ∣ |x|_\infty=\max\limits_i|x_i| x=imaxxi,向量所有元素绝对值中的最大值

∣ x ∣ − ∞ = min ⁡ i ∣ x i ∣ |x|_{-\infty}=\min\limits_i|x_i| x=iminxi,向量所有元素绝对值中的最小值

向量和矩阵的范数不同,具体可以参考numpy的帮助文档[^8]

AdaBoost这个方法, 比较迷人的地方就在于训练数据集误差率降为0之后, 依然能继续降低测试误差,看起来,似乎不会过拟合。Schapire给出的解释主要是基于间隔理论, 但是, AdaBoost的间隔和SVM的间隔是不一样的。

关于AdaBoost的间隔理论, Schapire在1998年提出之后,受到过质疑,周志华老师在这个问题上给出了解释,并说明了当间隔分布无法继续提升的时候, 过拟合终将发生。

AdaBoost与LR的关系

第一次提到AdaBoost和LR 的关系是本书参考文献[6], 给出了Boosting和LR损失函数之间的关系, 但是里面用到的损失小二乘。

本书的参考文献[9],从Bregman散度的角度解释AdaBoost和LR的关系。

文献[9]中有说明,LR的特征对应了AdaBoost中的弱分类器,或者是基分类器,分类器对应了hypotheses。

参考

[1] A Short Introduction to Boosting
[2]Boosting the margin: A new explanation for the effectiveness of voting methods
[3 ] Multi-class AdaBoost
[4] Improve boosting algorithms using confidence-rated predictions
[5] Machine Learning Techniques: Lecture 11: Gradient Boosted Decision Tree
[6] Logistic regression, AdaBoost and Bregman distances
[7] A decision-theoretic generalization of on-line learning and an application to boosting
[8]:numpy.linalg.norm
[9] 统计学习方法(第2版)[李航] [笔记, 代码, notebook, 参考文献, Errata, lihang]
[10]python大战机器学习

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值