机器学习之集成学习:adaboost+详细构建实例分析

本文详细介绍了adaboost算法,包括其基本思想和构建过程。通过乳腺癌数据集的分类实例,展示了adaboost如何通过不断调整样本权重和训练弱分类器,最终形成强分类器,并取得良好分类效果。
摘要由CSDN通过智能技术生成

目录

一、adaboost简介

二、adaboost基本思想

三、构建实例 

四、乳腺癌数据集adaboost分类


一、adaboost简介

adaboost算法,英文"Adaptive Boosting"(自适应增强)的缩写,由Yoav Freund和Robert Schapire在1995年提出,是一种属于boosting方法的二分类算法。它的基本思想是前一个学习器分类错误的样本要被后一个学习器更加重视,前一个分类器分错的样本的权重会得到加强,权重加强后的全体样本再次被用来训练下一个基本分类器。这样不断的进行分类器组合与更新,最终会达到一个很好的效果。

adaboost在分类器组合时采用多数投票法,但是是不等额投票,分类错误率越小的弱分类器在表决中占的比重越大,分类错误率大的弱分类器在表决中占的比重较小。

二、adaboost基本思想

1、初始化样本权重,对于有N个数据的样本集,每个样本的权重为\frac{1}{N}

2、训练弱学习器进行分类。对于分错的样本,在下一个弱学习器中,加大其权重,使学习器更重视,对于分类正确的样本,减少其权重。更新完权重后继续训练,重复整个过程。

3、对于所有的弱学习器进行线性组合,每个学习器都带有自身的权重,投票时为带权投票,输出最终投票结果。

具体流程为:

1、初始化权重:D1=(w_{11},w_{12},....,w_{1i}) ,i=1,2....N, w_{1i}= \frac{1}{N}

2、进行多轮迭代:首先用初始化的权重训练弱分类器:G_{1}(x)=\left \{ -1,+1 \right \} 

计算其分类错误率:e_{1}=\sum_{i=1}^{N}w_{1i}I(G_{1}(x^{i})!=y^{i}) 

计算在投票时G1的权重:\alpha _{1}=\frac{1}{2}ln\frac{1-e_{1}}{e_{1}} (或者换成log以2为底也可以)

更新训练集权重:D_{2}=(w_{21},w_{22},...,w_{2i})         

  • 1
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值