Adaboost算法

  集成学习的一般结构是,先产生一组个体学习器,再用某种结合策略将它们结合起来,从而获得一个准确性更高,稳定性更强,泛化性能更佳的集成模型。常用的结合策略有绝对多数投票法,相对多数投票法,加权投票法,简单平均法,加权平均法等。

  集成学习方法中具有代表性的两类算法是Bagging和Boosting。Bagging算法的各个弱学习器之间没有依赖关系,Boosting算法的各个弱学习器之间有依赖关系。Boosting是串行式集成学习方法的代表,其代表算法是Adaboost。Adaboost算法在训练过程中,注重减少每个弱学习器的误差,在训练下一个弱学习器时,根据上一次的训练结果,调整样本的分布,更加关注那些被分错的样本,使它们在下一次训练中得到更多的关注,有更大的可能被分类正确。Boosting算法通过在训练集上不断调整样本分布,基于不同的样本分布,重复训练多个弱分类器,最后通过结合策略将所有的弱分类器组合起来,构成强分类器。

   Adaboost使用指数函数损失,通过最小化指数损失函数,得到在每次迭代中更新的权重参数计算公式。

错误率:

alpha的计算公式如下:

计算出alpha的值后,可以对权重向量D进行更新,以使得那些正确分类的样本的权重降低而错分样本的权重升高

样本权重向量D的计算方式如下:

如果样本被正确分类,那么该样本的权重更改为:

如果样本被错分,那么该样本的权重更改为:

在计算出D之后,Adaboost又开始进入下一轮迭代,Adaboost算法会不断地重复训练和调整权重的过程,直到训练错误率为0或者弱分类器的数目达到指定值。

 

Adaboost算法优点:

泛化错误率低,易编码,可以应用在大部分分类器上,无参数调整。

缺点:对离群点敏感。

适用数据类型:数值型和标称型数据。

转载于:https://www.cnblogs.com/moonyue/p/11185359.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值