Adaboost(监督学习)

集成方法在函数模型上等价于一个多层神经网络,两种常见的集成方法为Adaboost模型RandomTrees模型。其中随机森林可被视为前馈神经网络,而Adaboost模型则等价于一个反馈型多层神经网络。

一.引入

         对于Adaboost,可以说是久闻大名,据说在Deep Learning出来之前,SVM和Adaboost是效果最好的 两个算法,而Adaboost是提升树(boosting tree),所谓“ 提升树 ” 就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了,貌似Adaboost的结构还和Neural Network有几分神似,我倒没有深究过,不知道是不是有什么干货。

二.过程

        (from PRML)

         这就是Adaboost的结构,最后的分类器YM是由数个弱分类器(weak classifier)组合而成的,相当于最后m个弱分类器来投票决定分类,而且每个弱分类器的“话语权”α不一样。

         这里阐述下算法的具体过程:

        1.初始化所有训练样例的权重为1 / N,其中N是样例数

        2.for m=1,……M:

               a).训练弱分类器ym(),使其最小化权重误差函数(weighted error function)

            

               b)接下来计算该弱分类器的话语权α:

                                                 

               c)更新权重:

                                           

                             其中Zm:

                                                 

                             是规范化因子,使所有w的和为1。(这里公式稍微有点乱)

           3.得到最后的分类器:

                              

三.原理


             可以看到整个过程就是和最上面那张图一样, 前一个分类器改变权重w,同时组成最后的分类器
              如果一个训练样例 在前一个分类其中被误分,那么它的权重会被加重,相应地,被正确分类的样例的权重会降低
             使得下一个分类器 会更在意被误分的样例,那么其中那些α和w的更新是怎么来的呢?
             下面我们从前项分步算法模型的角度来看看Adaboost:
             直接将前项分步加法模型具体到adaboost上:
                                  
              其中 fm是前m个分类器的结合
                                   
              此时我们要最小化E,同时要考虑α和yl,
              但现在我们假设前m-1个α和y都已经fixed了:那么
                                   
               其中 ,可以被看做一个常量,因为它里面没有αm和ym:
               接下来:
                                   
               其中Tm表示正分类的集合,Mm表示误分类的集合,这一步其实就是把上面那个式子拆开,没什么复杂的东西
               然后就是找ym了,就是最小化下式的过程,其实就是我们训练弱分类器
                                                
               有了ym,α也就可以找了,然后继续就可以找到更新w的公式了(注意这里得到的w公式是没有加规范化因子Z的公式,为了计算方便我们加了个Z进去)
             

四.实现

C++:http://blog.csdn.net/u012319493/article/details/53103192

python:

集成算法 实例:

http://blog.csdn.net/mlljava1111/article/details/50765517

adaboost python 实例:

http://blog.csdn.net/u014114990/article/details/51178899

https://github.com/justdark/dml/tree/master/dml








  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
92讲视频课+16大项目实战+课件源码  为什么学习数据分析?       人工智能、大数据时代有什么技能是可以运用在各种行业的?数据分析就是。      从海量数据中获得别人看不见的信息,创业者可以通过数据分析来优化产品,营销人员可以通过数据分析改进营销策略,产品经理可以通过数据分析洞察用户习惯,金融从业者可以通过数据分析规避投资风险,程序员可以通过数据分析进一步挖掘出数据价值,它和编程一样,本质上也是一个工具,通过数据来对现实事物进行分析和识别的能力。不管你从事什么行业,掌握了数据分析能力,往往在其岗位上更有竞争力。   本课程共包含五大模块: 一、先导篇: 通过分析数据分析师的一天,让学员了解全面了解成为一个数据分析师的所有必修功法,对数据分析师不在迷惑。  二、基础篇: 围绕Python基础语法介绍、数据预处理、数据可视化以及数据分析与挖掘......这些核心技能模块展开,帮助你快速而全面的掌握和了解成为一个数据分析师的所有必修功法。 三、数据采集篇: 通过网络爬虫实战解决数据分析的必经之路:数据从何来的问题,讲解常见的爬虫套路并利用三大实战帮助学员扎实数据采集能力,避免没有数据可分析的尴尬。  四、分析工具篇: 讲解数据分析避不开的科学计算库Numpy、数据分析工具Pandas及常见可视化工具Matplotlib。  五、算法篇: 算法是数据分析的精华,课程精选10大算法,包括分类、聚类、预测3大类型,每个算法都从原理和案例两个角度学习,让你不仅能用起来,了解原理,还能知道为什么这么做。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值