集成学习AdaBoost算法——学习笔记

集成学习

个体学习器1

个体学习器2  

个体学习器3   ——> 结合模块  ——>输出(更好的)

...

个体学习器n

 

通常,类似求平均值,比最差的能好一些,但是会比最好的差。

集成可能提升性能、不起作用、甚至起负作用。

集成要提高准确率!

每一个个体学习器之间存在差异

一定要有差异性,有差异性才能提升。这些弱学习器需要,好而不同。

 

集成学习分类:Bagging Boosting

Bagging:并行生成,然后结合。不存在依赖关系。

Boosting:依赖关系,一个一个学习器产生。

 

 AdaBoost算法

多个弱学习器加权融合:

 

误差率

每一个样本权重1/M,如果分错一个

分错第几个点

预测错误的权重提高(预测),迭代训练至错误率足够小。

 

Sign函数:1、-1两类。(>0or<0?)

算法流程:

10个样本,每个样本权重1/10=0.1

 

阈值根据观察,可以2.5/5.5/8.5?

选择误差率最低的,<阈值,Y=1。

2.5时,6、7、8,Y=-1分错了;

5.5时,3、4、5、6、7、8分错了。

第二次:

计算系数后,再次更新权重:

第三次:

 

 

 权重变化

对上一个分类器,分类错误的。迭代。

优点:

 

 

决策树构建模型:

 

转载于:https://www.cnblogs.com/wxl845235800/p/10133838.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值