AdaBoost算法理解

AdaBoost是一种将弱学习器转换为强学习器的算法,起源于弱可学习与强可学习的等价性证明。它通过迭代和调整权重,使分类较差的样本在后续模型中有更大影响,从而提升整体性能。AdaBoost的加性模型和前向分布算法在统计学上有坚实理论基础,其集成学习思想启发了XGBoost等高效算法。然而,AdaBoost对缺失数据敏感,计算量较大,且选择有效的弱学习器是个挑战。
摘要由CSDN通过智能技术生成

AdaBoost的前身和今世

强可学习和弱可学习

  1. 在概率近似正确(PAC)学习框架中, 一个类如果存在:
    • 一个多项式复杂度的学习算法,正确率略大于随机猜测(例如二分类问题中大于1/2),称弱可学习的
    • 一个多项式复杂度的学习算法,并且正确率很高,称强可学习的
  2. Kearns和Valiant证明了强可学习和弱可学习是等价
    The Strength of Weak Learnability
  3. Adaboost算法就是将弱学习器组成强学习器的算法
    Explaining AdaBoost
  4. 算法受到工业界和学术界的关注,充分的理论研究(统计学习方法证明)

AdaBoost算法是为了证明弱可学习和强可学习算法等价而提出的,随后,人们发现该类集成算法能够有效的提升一个学习器的作用,基于AdaBoost演化出了诸多的算法,例如在各大数据挖掘上大放光彩的XGBoost,几乎霸占了诸多数据竞赛榜单的前几多年(从2017开始),在数据预处理上填充空值常用的随机森林算法等等。
3
随后,学术界纷纷把关注点投向了这个算法的理论证明。得到了该类算法的统计学派角度的证明,即为AdaBoost是在指数损失函数、模型是加性模型、算法是前向分布算法。进一步的,给出了学习算法的训练误差界,说明了其训练过程中的最坏情况,并且表明其训练误差是以指数级别下降的。在明白了AdaBoost的统计意义后,人们尝试把损失函数换成其他的函数,使得演化为梯度提升算法,把分类器换为决策树,得到提升树算法…提升的思想和其他算法的结合演化了诸多运用性极强的算法。
以AdaBoost演变而来的Boost算法使得单个学习器的泛化指标得到或多或少的改进,在实际运用中,一个数据集合可能有多个合适的算法,但是相比寻找其他算法的合适参数,集成学习方法能够快速、高效的在数据上表现有泛化性能和学习性能,诸多数据分析师尤其是在数据挖掘领域的首选算法也是集成学习方法。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值