Boosting以及代表算法(Adaboost、GBDT)介绍

一、Boosting介绍

1.什么是Boosting

Boosting(提升)是一种集成学习方法,通过组合多个弱学习器来构建一个强学习器。与Bagging不同,Boosting采用了序列化的方式构建模型,每个弱学习器都是在前一个弱学习器的基础上进行训练,通过逐步调整样本的权重或难易程度来提高模型的预测性能。

简而言之:没新加入一个弱学习器,整体能力就会得到提升

代表算法有:Adaboost,GBDT,XGBoost,LightGBM

2.Boosting的实现过程
  1. 训练第一个学习器

    在这里插入图片描述

  2. 调整数据分布

    在这里插入图片描述

  3. 训练第二个学习器

    在这里插入图片描述

  4. 再次调整数据分布

    在这里插入图片描述

  5. 依次训练学习器,调整数据分布

    在这里插入图片描述

  6. 整体过程实现

    在这里插入图片描述

3.Boosting集成与Bagging集成的区别

Boosting集成和Bagging集成是两种常见的集成学习方法,它们在构建强学习器的方式上有一些区别。

  1. 样本选择方式:
    • Bagging集成:采用自助采样(有放回地从原始训练集中进行采样)的方式构建每个弱学习器的训练集。每个样本在训练集中出现的概率大约为63.2%。
    • Boosting集成:根据前一个弱学习器的性能调整样本权重,使得后续的弱学习器更关注于难以分类的样本。
  2. 学习过程:
    • Bagging集成:各个弱学习器之间是相互独立并行构建的,可以并行训练多个弱学习器。
    • Boosting集成:各个弱学习器是按顺序串行构建的,每个弱学习器都是在前一个学习器的基础上进行训练。
  3. 弱学习器权重:
    • Bagging集成:弱学习器的权重是相等的,每个弱学习器对最终预测结果的贡献是相同的。
    • Boosting集成:弱学习器的权重是根据其性能来调整的,错误分类的样本权重会被增加,正确分类的样本权重会被减少,以使得后续的弱学习器更关注于难以分类的样本。
  4. 预测结果的组合:
    • Bagging集成:通过简单投票或平均等方式对所有弱学习器的预测结果进行组合。
    • Boosting集成:通过加权投票或加权平均等方式对所有弱学习器的预测结果进行组合,权重通常与弱学习器的性能有关。
  5. 主要作用:
    • Bagging集成:主要用于提高泛化性能(解决过拟合,也可以说降低方差)
    • Boosting集成:主要用于提高训练精度(解决欠拟合,也可以说降低偏差)

总体而言,Bagging集成更注重通过样本的随机采样来增加模型的多样性,减小模型的方差;而Boosting集成更注重通过逐步调整样本权重和组合弱学习器的方式,提高模型的预测能力,减小模型的偏差

二、Adaboost的介绍

1.Adaboost的构造过程
  1. 初始化样本权重:

    对于包含N个样本的训练集,初始时将每个样本的权重设置为1/N。

  2. 弱学习器训练:

    构建第一个弱学习器(通常是一个简单的分类器)并使用训练集进行训练。在训练过程中,每个样本的权重会影响其在弱学习器训练中的重要性。

  3. 弱学习器权重计算:

    计算第一个弱学习器的权重(也称为该弱学习器的预测能力)。这个权重表示了该弱学习器在最终的集成模型中的贡献程度。

  4. 样本权重调整:

    根据第一个弱学习器的训练结果,调整每个样本的权重。被错误分类的样本的权重会增加,而被正确分类的样本的权重会减少。

  5. 更新样本权重归一化因子:

    为了保持样本权重的总和为1,需要对样本权重进行归一化。

  6. 迭代过程:

    重复步骤2-5,构建更多的弱学习器,并更新每个弱学习器的权重和样本权重,直到达到预设的迭代次数或满足终止条件。

  7. 弱学习器权重组合:

    根据每个弱学习器的权重,将它们进行加权组合,得到最终的强学习器。

  8. 预测结果:

    使用集成的强学习器对新样本进行预测,根据弱学习器的权重和预测结果进行加权投票或加权平均。

AdaBoost通过迭代的方式,逐步调整每个样本的权重和每个弱学习器的权重,使得难以分类的样本和错分的样本在后续的学习过程中获得更高的关注度。这样,AdaBoost能够将多个弱学习器结合起来构建一个强大的分类器,提高模型的性能和泛化能力。

2.Adaboost的API
  • from sklearn.ensamble import AdaBoostClassifier

三、GBDT的介绍

GBDT的全称是Gradient Boosting Decision Tree,梯度提升树,在传统机器学习算法中,GBDT算得上TOP3的算法。想要理解GBDT的真正意义,那就得理解GBDT中的Gradient BoostingDecision Tree分别是什么。

1.Decision Tree:CART回归树

GBDT使用的决策树是CART回归树,无论是处理回归问题还是二分类以及多分类问题,GBDT使用的决策树都是CART回归树。

  • 为什么不用CART分类树呢?
    • 因为GBDT每次迭代要拟合的是梯度值,是连续值所以要用回归树。
2.Gradient Boosting:梯度提升树

Gradient Boosting是一种集成学习方法,通过组合多个弱学习器来构建一个强学习器。它采用了序列化的方式构建模型,每个弱学习器都是在前一个弱学习器的基础上进行训练,并通过梯度下降的方式不断调整模型的预测结果。Gradient Boosting通过最小化损失函数的负梯度来更新模型的参数,以逐步提高模型的预测能力。

综上所述,Gradient Boosting是一种集成学习方法,用于指导GBDT模型的构建和更新过程,而Decision Tree是GBDT中使用的基本学习算法,用于构建每个弱学习器(决策树)。

3.GBDT算法的原理
  1. 初始化模型:

    初始时,将集成模型的预测值设置为一个常数(例如,训练集中目标变量的均值),作为初始的预测结果。

  2. 迭代训练弱学习器:

    通过迭代的方式,训练一系列的弱学习器,每个弱学习器都在之前模型的基础上进行训练。迭代的次数可以事先指定,也可以通过验证集的效果来确定。

  3. 计算残差:

    对于每个训练样本,计算实际值与当前模型预测值之间的残差(实际值减去当前模型的预测值)。残差表示当前模型无法准确预测的部分。

  4. 拟合弱学习器:

    使用当前残差作为目标变量,训练一个新的弱学习器。这个弱学习器将尝试捕捉之前模型无法解释的部分。

  5. 更新模型预测值:

    将新训练的弱学习器添加到集成模型中,并更新模型的预测值。通过给新的弱学习器分配一个权重,可以控制其对最终预测结果的影响程度。

  6. 迭代更新:

    重复步骤3-5,每次迭代都根据之前模型的残差训练一个新的弱学习器,并更新模型预测值。每次迭代都尝试进一步减少模型的残差。

  7. 组合弱学习器:

    最终,将所有弱学习器的预测结果按照一定的权重进行组合,得到集成模型的最终预测结果。

通过不断迭代训练弱学习器,并将它们组合在一起,GBDT能够逐步提升模型的预测能力。每个弱学习器都专注于解决前一个模型无法准确预测的部分,从而逐渐改进整体模型的性能。由于GBDT采用了梯度下降的思想,它能够有效地处理回归和分类问题,并在许多实际应用中取得良好的性能。

  • 2
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: AdaboostGBDT、XGBoost和LightGBM都是机器学习中常用的集成学习算法Adaboost是一种迭代算法,通过不断调整样本权重和分类器权重,逐步提高分类器的准确率。 GBDT(Gradient Boosting Decision Tree)是一种基于决策树的集成学习算法,通过不断迭代,每次训练一个新的决策树来纠正前面树的错误,最终得到一个强分类器。 XGBoost是一种基于GBDT算法,它在GBDT的基础上引入了正则化和并行化等技术,使得模型更加准确和高效。 LightGBM是一种基于GBDT算法,它采用了基于直方图的决策树算法和互斥特征捆绑技术,使得模型训练速度更快,占用内存更少,同时也具有较高的准确率。 ### 回答2: adaboost(Adaptive Boosting) 是一种基于不同权重的弱分类器的算法,它通过迭代的方式来逐步提高分类器的准确性。在每轮迭代中,它会调整训练样本的权重,使得前一轮分类错误的样本在当前轮得到更多的关注。最终,通过组合这些弱分类器来构建一个强分类器。其优点在于不易过拟合,但需要耗费大量的时间来训练和预测。 gbdt(Gradient Boosting Decision Tree) 是一种基于决策树的集成学习算法,它通过迭代的方式来提升分类器的准确性。基于训练样本和实际输出的误差进行梯度下降,将它们作为下一个分类器的训练数据。每个分类器都在之前所有分类器得到的残差的基础上进行训练,并且将它们组合成一个最终的分类器。在训练过程中,为了避免过拟合,可以限制决策树的深度等参数,并采用交叉验证等技术。gbdt可以处理缺失数据、不平衡分类和高维度数据等问题,但需要注意过拟合的问题。 xgboost(Extreme Gradient Boosting) 是一种基于决策树的集成学习算法,它在gbdt的基础上引入了正则化项和精细的特征选择,进一步提高了分类器的准确性和效率。通过Hessian矩阵对损失函数进行二阶泰勒展开,引入正则化约束,可以优化损失函数,并通过交叉验证等技术选择最优的超参数。xgboost还支持GPU加速,提高模型训练的速度和效率,但需要更多的计算资源。xgboost在分类、回归和排名任务中表现优异,但需要注意过拟合和计算量的问题。 lightgbm是微软旗下一款高效、快速、分布式的梯度提升框架,也是一种基于决策树的集成学习算法,定位在处理高维度数据和大规模数据集上。lightgbm采用了GOSS(Gradient-based One-Side Sampling)技术和EFB(Exclusive Feature Bundling)技术对数据进行处理,大大减少数据的内存占用和训练时间。同时,还支持并行计算和GPU加速,提高了模型的速度和效率。lightgbm在排序、分类、回归等任务中表现出色,只是对离群值敏感,需要对数据进行预处理。 ### 回答3: Adaboost,Gradient Boosting Decision Tree (GBDT),XGBoost和LightGBM都是常见的集成学习算法,它们用于提高模型在复杂数据集上的准确度,并处理复杂数据集上遇到的问题。 Adaboost是一种迭代算法,每次迭代它使用提高错误分类样本的加权值,并降低正确分类样本的加权值,以便让前一个弱分类器无法捕捉并由后续分类器学习。Adaboost弱分类器快速训练和预测,且不需要太多超参数调整,但是它倾向于过度拟合数据,并且实力可能不足以解决大型数据集的问题。 GBDT使用决策树作为弱分类器,将每一棵树的预测结果作为下一棵树的预测输入,最后对所有树的预测结果进行加权求和。GBDT可以很好地处理线性和非线性问题,但是它倾向于过度拟合数据,需要进行精细调整参数,并且需要较长时间的训练时间。 XGBoost结合了GBDT的优势和树的强大性质。它采用了一些优秀的技术,如Boosting树算法,Shrinkage,Column Sampling和Pruning Nodes,以提高模型的性能和降低过拟合风险。XGBoost可以处理大规模数据集和高维数据集,并且速度较快,但需要的资源较多,如内存、计算能力和高质量的数据集。 LightGBM是XGBoost的新一代版本,采用了GOI(Gradient-based One-side Sampling)算法和Histogram-based Gradient Boosting方法来加快训练速度和降低内存占用。GOI算法通过对数据进行一侧采样来提高训练速度,而直方图梯度提升方法将节点分裂建模为一个直方图分桶过程,以减少节点分裂的计算成本。LightGBM对大数据集的处理能力很强,速度相对较快,但对于处理小数据集的效果可能不明显。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值