Adaboost流程梳理

一般地说,Adaboost中每个弱分类器都是单层决策树。

基本思想如下:

  1. 第一步使得所有样本点等权重,寻找最优的判定阈值 θ 1 \theta_1 θ1和分类方法(方向,也即大于该阈值为+1还是小于该阈值为+1)。在该单层决策树下得到误差 ϵ 1 \epsilon_1 ϵ1。使用 ϵ 1 \epsilon_1 ϵ1可以计算出该分类器在最后所有分类器加权时的权重: α 1 = 1 2 ∗ l o g ( 1 − ϵ 1 ϵ 1 ) \alpha_1= \frac{1} {2} *log(\frac {1-\epsilon_1} {\epsilon_1}) α1=21log(ϵ11ϵ1)
  2. 接下来迭代数据权重,用第 i i i 轮表示。针对单个样本点 x x x而言: ω i = ω i − 1 ∗ e − α i − 1 h i − 1 ( x ) y i / ∑ x ω i − 1 ∗ e − α i − 1 h i − 1 ( x ) y i \omega_i=\omega_{i-1}*e^{-\alpha_{i-1}h_{i-1}(x)y_i} /\sum_x \omega_{i-1}*e^{-\alpha_{i-1}h_{i-1}(x)y_{i} } ωi=ωi1eαi1hi1(x)yi/xωi1eαi1hi1(x)yi ,除以该分母意为归一化的权重。其中 h i − 1 ( x ) h_{i-1}(x) hi1(x)为该点在上一次迭代后所得分类器对 x x x进行的预测lable。根据该数据权重计算新的 ϵ i \epsilon_i ϵi,继而计算新的 α i \alpha_i αi,得到第 i i i个分类器在所有分类器中的权重。直到得到最终分类器。
  3. 使用最终分类器计算预测值: H ( x ) = s i g n ( ∑ i α i h i ( x ) ) H(x) =sign(\sum_i\alpha_ih_i(x)) H(x)=sign(iαihi(x))
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值