强分类器(提升方法)-----------AdaBoost算法原理和推导过程

    备注本文参考李航老师的统计学习方法第8章

   提升方法的基本思路:对于复杂任务来说,将多个专家的判断进行综合所得的判断,要比其中任何一个专家的判断好,其实就是三个臭皮匠顶个诸葛亮的道理,提升方法是从弱学习算法出发,反复学习得到一系列的分类器,然后组合这些弱分类器构成一个强分类器。大多数的提升方法都是改变训练数据集的概率分布,针对不同的训练数据分布调用弱学习算法学习一系列的弱学习算法。其基本拓扑图如下

所以Adaboost主要分两步,第一基本分类器怎么形成,第二ai的值怎么确定,接下来就介绍Adaboost的求解过程

1.AdaBoost算法

输入:训练数据集T={(x1,y1),(x2,y2),...,(xn,yn)},其中每个样本点由实例和标记组成,AdaBoost利用一下算法,从训练数据中学习一些列弱分类器或基本分类器,并将这些弱分类器线性组合成一个强分类器。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值