彻底理解 AdaBoost 自适应提升算法 | AdaBoost 的关键要点、基本原理、优缺点和实际应用

一、关键要点

AdaBoost,即自适应提升(Adaptive Boosting)算法的缩写,是一种基于 Boosting 策略的集成学习方法,旨在降低偏差。AdaBoost 的 “自适应” 二字意味着它能够在每一轮迭代后调整对训练数据实例的关注度(特别是那些之前被错误预测的样本)和更新弱学习器的权重。

与随机森林类似,AdaBoost 也是集成学习中的代表性算法之一,并且适用于分类和回归任务。Boosting 方法在近年来的多项数据竞赛中均取得了卓越的成绩,其背后的概念却并不复杂。该方法通过简单、易于理解的步骤构建简单的模型,进而将这些简单模型组合成强大的学习器。

当 Bagging 方法无法有效发挥作用时,可能会导致所有分类器在同一区域内都产生错误的分类结果。Boosting 方法背后的直观理念是,我们需要串行地训练模型,而非并行。每个模型都应专注于之前分类器表现不佳的样本区域。相较于随机森林中各决策树的相互独立性,AdaBoost 展现出一种顺序训练的级联结构。在 AdaBoost 中,后续模型的训练基于前一个模型的预测结果,形成依赖关系。这种级联方式使 AdaBoost 更专注于解决之前未能正确预测的样本,逐步优化预测性能。AdaBoost 充分考虑了每个弱学习器的发言权,不同于随机森林的简单投票或计算平均值。

AdaBoost 的核心思想在于:每一轮迭代后更新样本权重和弱学习器权重(这里的弱学习器通常使用决策树桩,决策树桩是指一个单层决策树),从而实现整体性能的优化提升。核心逻辑在于 “前人栽树,后人乘凉”。即前辈为后辈创造条件,后辈在此基础上进行改进。在 AdaBoost 中,我们首先训练一个弱学习器,并对其预测性能进行评估。在每一轮迭代后,我们更新样本的权重,也就是改变样本的困难度。对预测正确的样本减少关注,而对预测错误的样本加大关注,使新模型更能专注于克服前面的模型无法正确预测的困难样本。

截图自 B 站 UP 主 —— 五分钟机器学习

 最终,我们通过为不同的弱学习器赋予不同的权重,并将它们有效结合,成功地构建了一个强大的集成学习模型。这个集成模型不仅涵盖了处理容易样本的模型,还包括了处理困难样本的模型。因此,AdaBoost 显著提高了模型的预测能力

二、AdaBoost 的基本原理和建模过程 

我们的第一个挑战在于如何评估样本的难度。通常,在训练 AdaBoost 的第一个模型时,我们会为每个样本点分配一个难度值,该值等于数据集中样本总数的倒数。训练完第一个模型后,我们将评估所有样本点,找出预测正确和错误的样本。对于预测正确的样本,我们会降低其难度值;而对于预测错误的样本,则增加其难度值。每一轮迭代后更新样本权重。 

截图自 B 站 UP 主 —— 五分钟机器学习

 

在此基础上,我们训练第二个模型,并再次评估所有样本点。由于训练第二个模型时,我们已经提高了对困难样本点的关注度,因此部分之前的预测错误的样本现在可能被正确预测。我们采用与训练第一个模型相同的策略:对于预测正确的样本,降低其难度值;对于预测错误的样本,增加其难度值(这相当于调整学习数据的分布)。这个过程会持续进行,直到达到我们预先设定的学习器数量。届时,AdaBoost 中将包含多个模型。

通过赋予不同的权重来组合不同的弱学习器。最后,我们需要整合每个模型的结果。不同于随机森林中的简单投票或均值计算,AdaBoost 需要对每个模型的预测性能进行评估,以确定不同弱学习器的权重。最后,利用这些权重将所有弱学习器的输出整合成一个整体。以上便是训练 AdaBoost 的基本逻辑。

AdaBoost 使用指数损失函数(exponential loss function):

L\left ( y,f\left ( x \right ) \right )= exp\left ( -yf\left ( x \right ) \right )

其中,y

是实际标签(取值为 -1 或 1),f\left ( x \right )

是模型对样本  x

的预测值。AdaBoost 通过最小化加权指数损失来训练每个弱学习器,并通过调整样本权重来重点关注误差较大的样本。尽管 AdaBoost 通常不直接采用梯度下降法来优化损失函数,但其过程可以视作一种特殊的梯度下降形式。具体来说,在每一轮中选择弱学习器以最小化当前所有样本的加权指数损失总和,这可以被看作是在损失空间中朝着减少总体误差的方向迈出的一步。

相较于随机森林中各决策树的相互独立性,AdaBoost 展现出一种顺序训练的级联结构。随机森林的性能受限于其并行结构,导致性能上限相对较低,类似于三个学渣合作,虽有提升,但在面对特别困难的问题时仍无法正确解答。而在 AdaBoost 中,后续模型的训练基于前一个模型的预测结果,形成依赖关系。这种级联方式使 AdaBoost 更专注于学习之前未能正确预测的样本,逐步优化预测性能。AdaBoost 充分考虑了每个弱学习器的发言权,不同于随机森林的简单投票或计算平均值。

这意味着对于复杂数据,模型的预测性能上限可能会超过随机森林。然而,过度追求对困难样本的正确预测,有时会导致模型过拟合,使其对异常样本点过于敏感。AdaBoost 的性能上限较高,但下限也较低。此外,由于 AdaBoost 的特殊结构,后续模型的训练是基于前一个模型的预测结果进行的,这导致模型的训练速度相对较慢

AdaBoost 除了能用于分类任务外,也能执行回归预测(即 AdaBoost.R2),尽管它在回归任务中并不常见。在 AdaBoost 回归中,损失函数可能采用加权均方误差,该误差量化了真实值与预测值之间的差异。作为一种元估计器,AdaBoost 回归器首先在原始数据集上训练一个基础回归器,然后在同一数据集上训练该回归器的多个副本,AdaBoost 在每次训练时会根据当前预测的误差调整样本的权重。因此,后续的回归器会更加关注那些预测误差较大的困难样本。

三、AdaBoost 的优点和不足

AdaBoost 的优点: 

  • 准确性高:通过在每一轮迭代后调整对训练数据实例的关注度(特别是那些之前被错误预测的样本)和更新弱学习器的权重,最后将不同的弱学习器以不同的权重组合在一起,以输出最终的预测结果。AdaBoost 通常能够达到较好的预测性能。
  • 易于代码实现:相对于其他复杂算法,AdaBoost 算法容易实现。并且默认参数就能取得不错的效果。
  • 自动处理特征选择:AdaBoost 可以自动选择有效特征,并且忽略不相关或噪声特征。
  • 灵活性:可与各种类型数据和不同类型问题配合使用。
  • 不太容易过拟合:在许多实践中,尽管增加了复杂度,但 AdaBoost 往往不容易过拟合。

AdaBoost 的不足: 

  • 噪声敏感性:对噪声和异常值敏感。由于算法会给错误预测样本更高权重,因此噪声和异常值可能会导致模型表现不佳。
  • 计算量较大:尽管单个模型可能简单,但需要顺序训练多个模型可能导致计算量增大。由于 AdaBoost 是一种迭代算法,需要顺序训练大量弱学习器,因此在处理大规模数据集或高维特征时,其计算量可能会变得相当大。
  • 数据不平衡问题:在面对极端不平衡数据时表现可能不佳。

总体而言,AdaBoost 是一种简单而高效的算法,适合作为解决分类问题的起点。然而,在应用时,需要注意其对噪声和异常值的敏感性。

四、AdaBoost 的实际应用 

面部识别系统:想象一个门禁系统需要识别人脸来决定是否允许进入。每个人脸都有很多特征:眼睛大小、鼻子形状、嘴巴位置等等。 AdaBoost 可以通过逐步 “关注” 难以区分人脸特征的部分(比如某些人眼睛形状相似),逐渐提高系统识别人脸的准确性。 

信用评分:银行需要决定是否批准贷款申请。他们可以使用 AdaBoost 来结合多个简单模型(例如基于申请人年龄、收入、信用记录等因素)来预测申请人违约的可能性。通过不断迭代,AdaBoost 能够更加精确地识别哪些客户是安全风险较低的借款者。

客户流失预测:公司通常希望知道哪些客户可能会停止使用其服务或产品。使用 AdaBoost 分析客户数据(包括购买历史、服务使用频率、客户反馈等),可以帮助公司识别出潜在的流失客户,并采取措施挽留他们。

AdaBoost 是一种强大且灵活的机器学习算法,广泛应用于多个领域。它通过不断迭代,并在每一轮迭代后更新样本和弱学习器的权重,将不同的弱学习器以不同的权重组合在一起,以输出最终的预测结果。这种方法有效地提高了预测的准确率和稳健性。无论是面部识别、信用评分还是客户流失预测等问题,AdaBoost 都能提供有效的解决方案。


准备了三大资源包:100GAI资源包+大模型资料包+论文攻略资源包(需要那个记得说明)

论文指导发刊+kaggle组队+技术问题答疑
关注工重号:AI技术星球  发送211 领qu

资料包:1、超细AI学习路线
2、人工智能基础:Python基础、数学基础
3、机器学习:12大经典算法、10大案例实战、推荐系统
4、深度学习:Pytorch+TensorFlow等课程、NLP、神经网络
5、物体检测:YOLO、MASKRCNN
6、计算机视觉:OpenCV、unet等
7、各阶段AI论文攻略合集
8、AI经典书籍及行业报告

整理不易,欢迎大家点赞评论收藏!

手把手带你从做科研到论文发表,一条龙全方位指导!

避免各种常见or离谱的坑,顺顺利利学习,快快乐乐毕业~

0基础也能发论文吗?  导师放养? 毕业压力?

找不到热点课题和方向、没有idea、没有数据集,实验验证不了、代码跑不通

没有写作基础、不知道论文的含金量,

高区低投、不清楚不了解完整的科研经验,

评职称、申博压力、自我高区位的追求  都可以找我了解

 

 

  • 30
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
XGBoost(eXtreme Gradient Boosting)和AdaBoostAdaptive Boosting)都是集成学习方法,用于提升弱学习器的性能。它们都采用了Boosting的思想,但有一些不同之处。下面是XGBoost相对于AdaBoost的一些优点: 1. 处理缺失值:XGBoost能够自动处理缺失值,不需要对缺失值进行额外的处理。而AdaBoost对于缺失值比较敏感,需要在预处理阶段进行填充或删除操作。 2. 处理非线性关系:XGBoost可以通过使用非线性基函数来建模非线性关系,因此能够更好地拟合复杂的数据模式。AdaBoost主要适用于线性关系较强的问题。 3. 正则化:XGBoost引入了正则化项,可以控制模型的复杂度,避免过拟合。AdaBoost没有显式的正则化机制。 4. 鲁棒性:XGBoost对于噪声和异常值具有较好的鲁棒性,可以通过调整正则化项来减少其对异常值的敏感性。而AdaBoost对异常值比较敏感。 5. 并行计算:XGBoost支持并行计算,能够利用多个CPU核心进行训练,从而加快模型训练的速度。而AdaBoost是串行计算的,无法充分利用多核计算资源。 总的来说,XGBoost相对于AdaBoost在处理缺失值、非线性关系、正则化、鲁棒性和并行计算等方面具有优势。但在某些情况下,AdaBoost可能仍然是一个有效的选择,特别是在处理线性关系较强的问题时。选择使用哪种算法应根据具体问题和数据的特点来决定。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值