Datawhale-集成学习-学习笔记Day4-Adaboost

Datawhale-集成学习-学习笔记Day4-Adaboost

1. 什么是boosting,与bagging的区别是什么

在集成学习中,主要的分支就只有两块。其中一个是bagging算法,另外一个是boosting算法。在bagging的学习中,我们可以得知bagging主要是针对数据集进行操作,进行随机的采样。同时我们也论证过,bagging只影响了结果的方差,通过减小方差来得出更好的结果。但是,bagging并没有影响的结果的期望,也就是说bagging并没有减小结果的偏差。

Boosting则是一种截然不同的思想。Boosting的训练中使用的是同一个训练集。通过对这个训练集反复训练以得到一系列的简单模型,并通过一种策略对这些模型进行整合,构建一个更加强大的训练模型。很显然,Boosting提升的是模型本身的性能,表现在结果上也就是减小的是模型的偏差。

我们可以总结一下bagging和boosting的区别:

  1. 在样本的选择上:bagging是基于Bootstrap的随机采样,每次有放回的进行采样。而Boosting则使用的是一直是同一个训练集。
  2. 在样本的权重上:bagging中所有的样本权重都是相同的,而Boosting的样本权重会有一些不同。对于经常错误的样本,其权重应当相应的增加一些
  3. 在预测函数上:bagging中所有的预测函数权重都是相同,而Boosting中,我们应该增加准确率高的模型在最终结果中占到的权重。
  4. 在并行运算上:bagging因为是随机采样,每一个模型的训练都是没有关联的,可以并行计算。但是Boosting中,我们需要根据样本的错误率来调整样本的权重,所以必须迭代运算。

所以对于Boosting算法来说,我们需要关注的只有两个点:

  1. 每一轮的迭代中,如何根据样本的错误率来调整样本的权值或者概率分布
  2. 如何将弱分类器组合成为一个强分类器

2. Adaboost

针对上述的两个问题:

Adaboost是这样解决的:提高在上一轮中被弱分类器错误分类的样本的权值,减小被正确分类样本的权值。这样被错误分类的样本在下一轮的训练中就会受到更高的关注。而对于弱分类器的组合,则使用的是加权的投票表决方法,让错误率低的模型在表决中更加具备话语权。

Adaboost算法的步骤:(为了方便说明,假设是一个二分类任务)

输入:训练数据集 T = ( x 1 , y 1 ) , ( x 2 , y 2 ) , ( x 3 , y 3 ) , . . . , ( x N , y N ) T={(x_1, y_1),(x_2,y_2),(x_3,y_3),...,(x_N,y_N)} T=(x1,y1),(x2,y2),(x3,y3),...,(xN,yN),其中 x i ∈ X ⊆ R n x_i \in \mathcal{X}\subseteq \mathbf{R}^{n} xiXRn y i ∈ Y = − 1 , + 1 y_i \in \mathcal{Y} = {-1, +1} yiY=1,+1,弱学习方法

输出:最终的分类器G(x)。

  1. 初始化训练数据的权值分布
    D 1 = ( w 11 , w 12 , w 13 , . . . , w 1 i , . . . w 1 N ) w 1 i = 1 N i = 1 , 2 , 3 , . . . N D_1=(w_{11},w_{12},w_{13},...,w_{1i},...w_{1N})\quad\quad w_{1i}={1\over N}\quad\quad i=1,2,3,...N D1=(w11,w12,w13,...,w1i,...w1N)w1i=N1i=1,2,3,...N

  2. 对于M个epoch来说, m = 1 , 2 , . . . , M m=1,2,...,M m=1,2,...,M

    • 使用具有权值分布 D m D_m Dm的训练集学习得到基本分类器 G m : X − > − 1 , + 1 G_m: \mathcal{X} -> {-1, +1} Gm:X>1,+1

    • 计算 G m ( x ) G_m(x) Gm(x)在训练数据集上的分类误差率
      e m = ∑ i = 1 N P ( G m ( x i ) ≠ y i ) = ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) e_m=\sum_{i=1}^NP(G_m(x_i) \neq y_i)=\sum_{i=1}^Nw_{mi}I(G_m(x_i)\neq y_i) em=i=1NP(Gm(xi)=yi)=i=1NwmiI(Gm(xi)=yi)

    • 计算 G m ( x ) G_m(x) Gm(x)的系数
      α m = 1 2 log ⁡ 1 − e m e m \alpha_m={1\over2}\log{{1-e_m}\over{e_m}} αm=21logem1em

    • 更新训练数据集的权值分布:
      D m + 1 = ( w m + 1 , 1 , ⋯   , w m + 1 , i , ⋯   , w m + 1 , N ) D_{m+1}=\left(w_{m+1,1}, \cdots, w_{m+1, i}, \cdots, w_{m+1, N}\right) Dm+1=(wm+1,1,,wm+1,i,,wm+1,N)

      w m + 1 , i = w m i Z m exp ⁡ ( − α m y i G m ( x i ) ) , i = 1 , 2 , ⋯   , N w_{m+1, i}={{w_{m i}}\over{Z_{m}}} \exp \left(-\alpha_{m} y_{i} G_{m}\left(x_{i}\right)\right), \quad i=1,2, \cdots, N wm+1,i=Zmwmiexp(αmyiGm(xi)),i=1,2,,N

      在这里 Z m Z_m Zm是规范化因子:
      Z m = ∑ i = 1 N w m i exp ⁡ ( − α m y i G m ( x i ) ) Z_m=\sum_{i=1}^Nw_{mi}\exp(-\alpha_my_iG_m(xi)) Zm=i=1Nwmiexp(αmyiGm(xi))
      它可以使 D m + 1 D_{m+1} Dm+1成为概率分布。

  3. 构建基本分类器的线性模型。
    f ( x ) = ∑ m = 1 M α m G m ( x ) f(x)=\sum_{m=1}^M\alpha_mG_m(x) f(x)=m=1MαmGm(x)
    因为是二分类模型,所以我们可以使用符号函数来获取最终的结果:
    G ( x ) = s i g n ( f ( x ) ) G(x)=sign(f(x)) G(x)=sign(f(x))

我们可以对上述的过程做一些说明:

  1. 什么是分类误差率?原本在等权值的数据集中,我们计算误差率应该是错误的样本数量除以总样本的数量。但是,在不等权重的样本集中,不可以直接这样计算。可以转化一下理解的方式,我们在初始化样本权重的时候,使用的是全部为等值 1 N 1\over N N1。所以可以这样理解,错误率就是错误样本权重的和。

    这个结论也可以引申到不等权重的样本集中。所以我们记错误率为:
    e m = ∑ G ( x i ) ≠ y i N w m i e_m = \sum_{G(x_i) \neq y_i}^N w_{mi} em=G(xi)=yiNwmi

  2. 关于子模型权重的理解:
    α m = 1 2 log ⁡ 1 − e m e m \alpha_m={1\over2}\log{{1-e_m}\over e_m} αm=21logem1em
    e m ≤ 1 2 e_m \leq {1 \over 2} em21时, α ≥ 0 \alpha \geq 0 α0。在这里我们应该是可以保证 e m ≤ 1 2 e_m \leq {1 \over 2} em21的,因为即便是没有训练过的随机分类模型也应该会有50%的准确率。且根据弱可学习的概念,我们学习到的模型原本就应当准确率大于50%。

    根据对数函数的特性,当 e m e_m em减小的时候 1 − e m e m {1-e_m} \over e_m em1em会增加,模型的权重 α m \alpha _m αm也会增加。

    我们可以知道, α m \alpha _m αm的和并不为1。但是,我们认为最终结果 G ( x ) G(x) G(x)的数值对结果并无影响,我们关注的只是最终输出的符号。可以认为 ∣ G ( x ) ∣ |G(x)| G(x)的大小为结果的确信度。

  3. 对样本集权重更新的理解:

    使用以e为低的指数,在指数部分上为 − α m y i G m ( x i ) - \alpha _my_iG_m(x_i) αmyiGm(xi)。当预测正确时,指数部分为负数。当预测错误的时候,指数部分为正数。因为指数函数的特性,预测正确时,权重会乘以一个小于1大于0的数,预测失败时,会乘以一个权重大于1的数。保证预测正确的时候,权重减小,预测失败时权重增加。

    最终 Z m Z_m Zm的功能是为了保证最终的权重和为1.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值