以AdaBoost算法为例,详解集成学习的思想(二)

接下来介绍Boosting族算法中最著名的AdaBoost算法,其基本思想如下:
1、改变训练数据的权值或概率分布,提高前一轮弱分类器分错的样本的权值,降低分类正确的样本的权值(体现在什么地方?乘以exp())。举个例子,我们平时记单词,总是选择前一天没有记下来的单词进行强化训练。
2、如何将弱分类器组合成一个强分类器?加大分类错误率小的基分类器的权值,降低分类错误率大的基分类器的权值。
AdaBoost算法是加法模型和前向分步算法的结合,使用的是指数损失函数。
0-1损失函数:
指数损失函数: 指数损失函数是0-1损失函数的一种代理函数。
损失函数介绍

下面介绍算法的详细推导过程:从基于加法模型迭代式优化指数损失函数的角度推导。
推导1
推导2
算法大致流程如下:
算法

Boosting算法要求基学习器能对特定的数据分布进行学习,这可以通过重赋权值实施,即在训练过程的每一轮中,根据样本分布为每个训练样本重新赋一个权重。

对无法接受带权样本的基学习算法,则可以通过重采样法来处理,即在每一轮的学习中,根据样本分布对训练集重新进行采样,然后训练基学习器。

一般而言,这两种做法没有显著的优劣差别。

Boosting算法在训练的每一轮都要检查当前的生成的基学习器的正确率大于0.5,若不满足,则当前学习器被抛弃,且学习过程停止。此时可采用重采样法,抛弃不满足条件的基学习器之后,根据当前分布重新对训练样本进行采样,重新训练基学习器,直到满足训练次数T。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值