集成学习提升算法-Adaboost

Adaboost 算法原理及推导

Adaboost 是Boosting算法的代表。Boosting可将许多弱学习器组合达到强学习器的效果。

Adaboost 是通过提升错分数据的权重值来改善模型的不足。
其主要的流程是:

  1. 先训练一个基学习器;
  2. 根据基学习器的表现,改变样本的分布,使得错误分类的样本得到更多的关注;
  3. 改变分布后的样本再训练新的基学习器,如此迭代;
  4. 加权组合这些基学习器。

一、Adaboost算法原理

“Adaptive Boosting”(自适应增强)

Adaboost算法中,每个样本有对应的权重D,每个基分类器也有对应的权重α,然后是下边的三步骤:

Step1:初始化训练集的权重;
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值