机器学习之集成算法----Adaboost算法

Boosting 算法基本原理

在这里插入图片描述
Boosting算法的工作机制首先从训练集用初始权重训练出一个弱学习器1,根据弱学习的学习误差率表现来更新训练样本的权重,使得之前弱学习器1学习误差率高的训练样本点的权重变高,使得这些误差率高的点在后面的弱学习器2中得到更多的重视。然后基于调整权重后的训练集来训练弱学习器2.,如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器通过集合策略进行整合,得到最终的强学习器。

对应问题

  • 1 如何计算弱学习器的学习误差率e
  • 2 如何得到弱学习器的权重系数α
  • 3 如何更新训练样本权重D
  • 4 使用何种结合策略

Adaboost 算法

在boosting系列算法中, Adaboost是最著名的算法之一。Adaboost既可以用作分类,也可以用作回归

算法流程

标准AdaBoost算法只适用于二分类任务
在这里插入图片描述
在这里插入图片描述

个人描述

在这里插入图片描述

指示函数

在这里插入图片描述

学习器权重和样本权重 公式推导

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
权重之和为1
在这里插入图片描述

Adaboost算法的正则化

在这里插入图片描述

小结

理论上任何学习器都可以用于Adaboost.但一般来说,使用最广泛的Adaboost弱学习器是决策树和神经网络。对于决策树,Adaboost分类用了CART分类树,而Adaboost回归用了CART回归树

这里对 Adaboost算法的优缺点 做一个总结。

Adaboost的主要优点有:

1)Adaboost作为分类器时,分类精度很高

2)在Adaboost的框架下,可以使用各种回归分类模型来构建弱学习器,非常灵活。

3)作为简单的二元分类器时,构造简单,结果可理解。

4)不容易发生过拟合

Adaboost的主要缺点有:

1)对异常样本敏感,异常样本在迭代中可能会获得较高的权重,影响最终的强学习器的预测准确性

传送门

集成学习之Adaboost算法原理小结
AdaBoost算法详解以及代码实现
AdaBoost算法详解与python实现
数据挖掘领域十大经典算法之—AdaBoost算法(超详细附代码)

视频

集成学习:XGBoost, lightGBM

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值