机器学习-Boosting(AdaBoost、GBDT)

一、集成模型

二、Boosting

1、思想

Boosting:将弱学习器组合成强学习器

Boosting思想:个体学习器之间 存在 强依赖关系,一系列个体学习器基本都需要 串行 生成,然后使用组合策略,得到最终的集成模型,这就是boosting的思想。(Bagging为并行,且不存在依赖关系)

2、实现

Boosting可以视为一种自适应基模型:

 其中Φm(x)为基函数/弱学习器(一般选用CART)

Boosting在集成学习领域是非常耀眼的一类方法,其中又以AdaBoostGBDT最为突出

三、AdaBoost

1、基本思想

样本权重 / “过滤”

---没有先验知识的情况下,初始的分布为等概分布,即训练集如果有N个样本,每个样本的分布概率为1/N

---每次循环后提高误差样本的分布概率,误差样本在训练集中所占权重增大,使得下一次循环的弱学习器能集中力量对这些误分样本进行判断

        前面的模型对训练集预测后,在每个样本上都会产生一个不同损失,AdaBoost会为 每个样本更新权重, 分类错误的样本要 提高权重 ,分类正确的样本要 降低权重 ,下一个学习器会更加“ 关注 ”权重大的样本;每一次得到一个模型后,根据模型在该轮数据上的表现给当前模型设置一个 权重 表现好的权重大 ,最终带权叠加得到最终集成模型模型组合:弱学习器线性组合。

 2、实现

给定训练集:(x1,y1),.....,(xN,yN),其中yi ∈ {-1,1}表示xi的类别标签

训练集上样本的初始分布:w1,i = 1/N

对m = 1:M,(循环M轮,每一轮得到一个弱分类器)

       1、训练样本采用权重Wm,i计算弱分类器Φm(x)

       2、算该弱分类器在分布Wm上的误差:

(Ⅱ(Φm(xi) ≠ yi)满足条件为1,否则为0)(目的:对于分错的样本减小权重,提高模型准确率)

       3、算该弱分类器的权重:

       4、新训练样本的分布:

        (其中Zm为归一化常数,使得Wm+1,是一个分布,对于误差大的数据加大训练)

最后的强分类器为:

 3、优缺点

优点:
        -可以使用各种回归分类模型来构建弱学习器,非常灵活
        -Sklearn中对AdaBoost的实现是从带权学习视角出发的,思想朴素,易于理解
        -控制迭代次数可以一定程度防止发生过拟合
缺点:
        - 对异常样本敏感,异常样本在迭代中可能会获得较高的权重,影响最终预测准确性

四、GBDT

1、简介

        GBDT全称Gradient Boosting Decison Tree,同为Boosting家族的一员,它和Adaboost有很大的不同。 Adaboost 是利用前一轮弱学习器的误差率来 更新训练集的权重 ,这样一轮轮的迭代下去,简单的说是 Boosting框架+任意基学习器算法+指数损失函数
        GBDT通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的 残差 基础上进行训练。对弱分类器的要求一般是足够简单,并且是低方差和高偏差的。因为训练的过程是通过降低偏 差来 不断提高最终分类器的精度

2、实现

给定输入向量X和输出变量Y组成的若干训练样本(X1,Y1),(X2,Y2),…,(Xn,Yn) ,目标是找到近似函数 F(x) ,使损失函数最小在这里我们损失函数使用最小二乘损失函数.

 最优解:

以贪心算法的思想扩展得到Fm(X),求解最优f:

以贪心法在每次选择最优基函数f时仍然困难,使用梯度下降的方法近似计算,给定常数函数F0(X):

根据梯度下降计算“导数(残差)”值:

使用数据 (xi ,aim )(i=1……n )计算拟合残差找到一个CART回归树,得到第m棵树:

 ●更新模型:

 3、图解

把每次预测结果最一个叠加,预测为20+6+3+1 = 30.

  • 8
    点赞
  • 60
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: AdaboostGBDT、XGBoost和LightGBM都是机器学习中常用的集成学习算法。 Adaboost是一种迭代算法,通过不断调整样本权重和分类器权重,逐步提高分类器的准确率。 GBDT(Gradient Boosting Decision Tree)是一种基于决策树的集成学习算法,通过不断迭代,每次训练一个新的决策树来纠正前面树的错误,最终得到一个强分类器。 XGBoost是一种基于GBDT的算法,它在GBDT的基础上引入了正则化和并行化等技术,使得模型更加准确和高效。 LightGBM是一种基于GBDT的算法,它采用了基于直方图的决策树算法和互斥特征捆绑技术,使得模型训练速度更快,占用内存更少,同时也具有较高的准确率。 ### 回答2: adaboost(Adaptive Boosting) 是一种基于不同权重的弱分类器的算法,它通过迭代的方式来逐步提高分类器的准确性。在每轮迭代中,它会调整训练样本的权重,使得前一轮分类错误的样本在当前轮得到更多的关注。最终,通过组合这些弱分类器来构建一个强分类器。其优点在于不易过拟合,但需要耗费大量的时间来训练和预测。 gbdt(Gradient Boosting Decision Tree) 是一种基于决策树的集成学习算法,它通过迭代的方式来提升分类器的准确性。基于训练样本和实际输出的误差进行梯度下降,将它们作为下一个分类器的训练数据。每个分类器都在之前所有分类器得到的残差的基础上进行训练,并且将它们组合成一个最终的分类器。在训练过程中,为了避免过拟合,可以限制决策树的深度等参数,并采用交叉验证等技术。gbdt可以处理缺失数据、不平衡分类和高维度数据等问题,但需要注意过拟合的问题。 xgboost(Extreme Gradient Boosting) 是一种基于决策树的集成学习算法,它在gbdt的基础上引入了正则化项和精细的特征选择,进一步提高了分类器的准确性和效率。通过Hessian矩阵对损失函数进行二阶泰勒展开,引入正则化约束,可以优化损失函数,并通过交叉验证等技术选择最优的超参数。xgboost还支持GPU加速,提高模型训练的速度和效率,但需要更多的计算资源。xgboost在分类、回归和排名任务中表现优异,但需要注意过拟合和计算量的问题。 lightgbm是微软旗下一款高效、快速、分布式的梯度提升框架,也是一种基于决策树的集成学习算法,定位在处理高维度数据和大规模数据集上。lightgbm采用了GOSS(Gradient-based One-Side Sampling)技术和EFB(Exclusive Feature Bundling)技术对数据进行处理,大大减少数据的内存占用和训练时间。同时,还支持并行计算和GPU加速,提高了模型的速度和效率。lightgbm在排序、分类、回归等任务中表现出色,只是对离群值敏感,需要对数据进行预处理。 ### 回答3: Adaboost,Gradient Boosting Decision Tree (GBDT),XGBoost和LightGBM都是常见的集成学习算法,它们用于提高模型在复杂数据集上的准确度,并处理复杂数据集上遇到的问题。 Adaboost是一种迭代算法,每次迭代它使用提高错误分类样本的加权值,并降低正确分类样本的加权值,以便让前一个弱分类器无法捕捉并由后续分类器学习。Adaboost弱分类器快速训练和预测,且不需要太多超参数调整,但是它倾向于过度拟合数据,并且实力可能不足以解决大型数据集的问题。 GBDT使用决策树作为弱分类器,将每一棵树的预测结果作为下一棵树的预测输入,最后对所有树的预测结果进行加权求和。GBDT可以很好地处理线性和非线性问题,但是它倾向于过度拟合数据,需要进行精细调整参数,并且需要较长时间的训练时间。 XGBoost结合了GBDT的优势和树的强大性质。它采用了一些优秀的技术,如Boosting树算法,Shrinkage,Column Sampling和Pruning Nodes,以提高模型的性能和降低过拟合风险。XGBoost可以处理大规模数据集和高维数据集,并且速度较快,但需要的资源较多,如内存、计算能力和高质量的数据集。 LightGBM是XGBoost的新一代版本,采用了GOI(Gradient-based One-side Sampling)算法和Histogram-based Gradient Boosting方法来加快训练速度和降低内存占用。GOI算法通过对数据进行一侧采样来提高训练速度,而直方图梯度提升方法将节点分裂建模为一个直方图分桶过程,以减少节点分裂的计算成本。LightGBM对大数据集的处理能力很强,速度相对较快,但对于处理小数据集的效果可能不明显。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

醉翁之意不在酒~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值