AdaBoost 的4种类别学习(1)

AdaBoost是一种迭代算法,通过不断调整样本权重训练弱分类器,并组合成强分类器。文章介绍了Discrete AdaBoost、Real AdaBoost、Gentle AdaBoost和Logit四种类型,重点在于权重更新和弱分类器的训练过程。
摘要由CSDN通过智能技术生成

理论部分

Adaboost是一种迭代算法。初始时,所有训练样本的权重都被设为相等,在此样本分布下训练出一个弱分类器。在第( i =1,2,3, …MM为迭代次数)次迭代中,样本的权重由第  i-1次迭代的结果而定。在每次迭代的最后,都有一个调整权重的过程,被分类错误的样本将得到更高的权重。这样分错的样本就被突出出来,得到一个新的样本分布。在新的样本分布下,再次对弱分类器进行训练,得到新的弱分类器。经过M次循环,得到M个弱分类器,把这T个弱分类器按照一定的权重叠加起来,就得到最终的强分类器(很多博客里说的三个臭皮匠赛过诸葛亮)。用公式来体现的话见下图。文档里看到有句话说的是:”Theidea behind adaptive boosting is to weight the data instead of (randomly)sampling it and discarding it”


完整的adaboost算法(其实是所谓的DiscreteAdaBoost)<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值