AdaBoost

AdaBoost自适应增强,一直听说这个方法,觉得很高端,大半夜的记一下!

自适应增强的思想是用多个弱分类器提升出一个强的分类器:强可学习和弱可学习是等价的!


步骤:


首先,你有一批数据<Xi, Yi>作为训练集


其次,你有一个学习分类模型的方法,而且你这个学习方法应该用到训练集中每个样本的权重,因为自适应增强方法就是通过不断增大上一轮分错样本的权重同时降低分对样本的权重的方法来不断改变对模型的学习的。如果你模型的学习跟样本的权重没有关系那自适应增强就完了!


再次,根据你当前学习到的一个模型G,根据它分类误差率(就是它分错的那些样本对应的权重之和),求出它的一个系数,这个系数代表了该次学到的这个模型G在最终的模型中所占的比重。最终的模型是你多次学到的多个模型的线性作何,对应每个系数就是这里学到的系数,注意所有的系数的和并不等于1。


具体的权重更新公式和系数计算公式参考李航《统计学习方法》

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值