Adaboost算法流程记录

本文详细介绍了Adaboost算法的流程,包括初始化权值分布、迭代训练弱分类器和构建最终分类器的步骤。重点阐述了如何计算弱分类器的权重系数和更新权值分布的过程,涉及到正确权重和、错误权重和以及权重错误率的概念。
摘要由CSDN通过智能技术生成

下面关于adaboost的内容部分参考李航老师的《统计学习方法》

输入:训练数据集\(T = \{(x_1, y_1), (x_2, y_2), ..., (x_N, y_N)\}\),其中\(X\)为实例空间,\(Y \in \{-1, +1\}\)为标签集合。

输出:最终的分类器\(G(x)\)

Adaboost算法流程:

1、初始化训练数据的权值分布:

$$u_n^{(1)} = (u_1^{(1)}, u_2^{(1)}, ..., u_N^{(1)}) = (\frac{1}{N}, \frac{1}{N}, ..., \frac{1}{N}),其中右上角的(1)表示第一次迭代$$

2、迭代直到收敛:

     (1)、根据训练集\(T\)和权值分布\(u_n^{(t)}\)训练出弱分类器\(g_t(x)\);

     (2)、根据训练集\(T\)、权值分布\(u_n^{(t)}\)和弱分类器\(g_t(x)\)求出\(\alpha_t\)和下一次迭代时使用的权值分布\(u_n^{(t+1)}\);

3、构建最终的分类器:

$$G(x) = sign(\sum_{n=1}^N \alpha_t g_t(x))$$

 

符号说明:算法中的上标或者下标\((t)\)表示第\(t\)次迭代,如果原字母没有下标,则\(t\)使用下标形式;如果原字母已经有了下标,则\(t\)使用带小括号的上标形式。

上面的算法中第1步和第3步不用说明。先看第2-(1)步,这一步就是训练弱分类器,具体的训练方式根据采用的弱分类器决定,比如采用决策桩作为弱分类器,那这一步就和回归树的训练类似。


为了对步骤2-(2

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值