机器学习之AdaBoost,GBDT,XGBoost


说实话个人觉得这部分内容还是很难理解的,需要大量的数学优化方面的知识还有机器学习的思想,我先记录下我能理解的方面,错误之处,多多指教。
一.AdaBoost
这三个算法都是集成学习的boosting,所谓boosting,就是顺次建立一系列的基学习器,在建立每个学习器时,都寻找改进的方向,来提升整个模型的准确率,而应用最广的就是以决策树作为基学习器。
AdaBoost核心思想:在顺次迭代的每一次构造分类器,都根据该分类器在训练集上的分类结果,给训练集中的每个样本一个新的权值:如果该样本被分对,则权值小,如果被分错,则权值大,然后根据这个权值能够算出这个刚构建的基分类器的权值。
那么,问题来了,权值是怎么算的呢,看两个公式:

这里写图片描述
这里写图片描述
这里写图片描述

这里写图片描述
这里的e是分类器误差率,就是分错的,a这个基分类器的权值,w是每个样本的权值,所以根据这些公式就能算出权值了,这里的Z是标准化的处理,反正就是数学上的一些处理,至于为什么用这个公式,如果大家定性的分析,发现他还是合理的:误差率大,权值就调大。

进一步理解 对于整个Boost家族来说,我们要抓住本质,每次构造分类器,都使其在损失减少的方向上构造,即采用不同的损失函数做准确度的提升,对于Adaboost也是如此,我们知道,对于每个模型,都有自己对应的损失函数,线性回归是平方和损失,逻辑回归是交叉熵损失,SVM是Hinge损失,对于Adaboost,是指数损失函数,
这里写图片描述
至于他的损失函数是指数函数呢,我看书上的数学推导比较复杂,反正就是各种求最优解,最后发现他就是个指数函数,呵呵。

对于Adaboost,可以看到他对于分错的样本比较敏感,容易产生过拟合的问题,我看大神都不太推荐用这个。

二.GBDT
Gradient boosting,称为梯度提升。应用最为广的就是提升决策树。
在提升决策树中,我们假设f(x)=∑hj(x) ,第j颗决策树记做hj(x),所得的模型是f(x),这种抽象成函数的思维要养成,损失函数对于机器学习太重要了
核心思想将平方和损失作为损失函数,这里写图片描述每一次迭代,采用负梯度作为x的新的目标值。这也很好理解,平方和求梯度就是残差,残差表示真实值和当前预测值之间的差异,如果能让残差为0,这就是极好的模型。这样想是不就很好理解啦。
其实最容易想到的方法是采用贪心的方法使损失函数最小,如公式:
这里写图片描述
这里的r是学习率,也是步长,这个可以我们控制,我看书上说用一些最优化的理论也能用,呵呵,我是没看懂他那数学推导。
但是对于大量的样本,复杂的函数而言,贪心是很难实现的,所以GBDT采用了类似梯度下降的方法,如公式,
这里写图片描述
过拟合的控制
我们知道,如果模型过于复杂,那么很可能带来过拟合的问题,在梯度提升中,我们可以通过控制学习率,就是上面说的步长,决策树的总数,每颗决策树大小等控制。这些都在sklearn包中得到了很好的支持。具体参数还是要看实际业务的,不过大家可以参照下大神们的经验值==

三.XGBoost

对就是大名鼎鼎陈天奇提出来的那个XGBoost。在GDBT的基础上理解XGBoost就比较容易了,XGBoost是将损失函数做泰勒展开到二阶导,另外,为了防止过拟合又加了正则项,
这里写图片描述
就是这个东西,学过高数的都知道,然后就是一大堆数学推导,来处理这个损失函数,最后推出这么个东西,
这里写图片描述
这里G,H代表和一阶导,二阶导相关的参数,T代表叶子结点的数目,λ为正则项的系数,然后我们就可以说这个公式可以代表决策树的结构,这个值越小,决策树的结构越好,那么我们就可以仿照最初决策树的做法,用这个公式,计算每次节点的划分贪心实现。顺便说一句,这里的损失函数也是可以自定义的。
机器学习竞赛中,XGboost往往具有很好的效果,可以防止过拟合,速度又快,推荐大家使用。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: AdaboostGBDTXGBoost和LightGBM都是机器学习中常用的集成学习算法Adaboost是一种迭代算法,通过不断调整样本权重和分类器权重,逐步提高分类器的准确率。 GBDT(Gradient Boosting Decision Tree)是一种基于决策树的集成学习算法,通过不断迭代,每次训练一个新的决策树来纠正前面树的错误,最终得到一个强分类器。 XGBoost是一种基于GBDT算法,它在GBDT的基础上引入了正则化和并行化等技术,使得模型更加准确和高效。 LightGBM是一种基于GBDT算法,它采用了基于直方图的决策树算法和互斥特征捆绑技术,使得模型训练速度更快,占用内存更少,同时也具有较高的准确率。 ### 回答2: adaboost(Adaptive Boosting) 是一种基于不同权重的弱分类器的算法,它通过迭代的方式来逐步提高分类器的准确性。在每轮迭代中,它会调整训练样本的权重,使得前一轮分类错误的样本在当前轮得到更多的关注。最终,通过组合这些弱分类器来构建一个强分类器。其优点在于不易过拟合,但需要耗费大量的时间来训练和预测。 gbdt(Gradient Boosting Decision Tree) 是一种基于决策树的集成学习算法,它通过迭代的方式来提升分类器的准确性。基于训练样本和实际输出的误差进行梯度下降,将它们作为下一个分类器的训练数据。每个分类器都在之前所有分类器得到的残差的基础上进行训练,并且将它们组合成一个最终的分类器。在训练过程中,为了避免过拟合,可以限制决策树的深度等参数,并采用交叉验证等技术。gbdt可以处理缺失数据、不平衡分类和高维度数据等问题,但需要注意过拟合的问题。 xgboost(Extreme Gradient Boosting) 是一种基于决策树的集成学习算法,它在gbdt的基础上引入了正则化项和精细的特征选择,进一步提高了分类器的准确性和效率。通过Hessian矩阵对损失函数进行二阶泰勒展开,引入正则化约束,可以优化损失函数,并通过交叉验证等技术选择最优的超参数。xgboost还支持GPU加速,提高模型训练的速度和效率,但需要更多的计算资源。xgboost在分类、回归和排名任务中表现优异,但需要注意过拟合和计算量的问题。 lightgbm是微软旗下一款高效、快速、分布式的梯度提升框架,也是一种基于决策树的集成学习算法,定位在处理高维度数据和大规模数据集上。lightgbm采用了GOSS(Gradient-based One-Side Sampling)技术和EFB(Exclusive Feature Bundling)技术对数据进行处理,大大减少数据的内存占用和训练时间。同时,还支持并行计算和GPU加速,提高了模型的速度和效率。lightgbm在排序、分类、回归等任务中表现出色,只是对离群值敏感,需要对数据进行预处理。 ### 回答3: Adaboost,Gradient Boosting Decision Tree (GBDT),XGBoost和LightGBM都是常见的集成学习算法,它们用于提高模型在复杂数据集上的准确度,并处理复杂数据集上遇到的问题。 Adaboost是一种迭代算法,每次迭代它使用提高错误分类样本的加权值,并降低正确分类样本的加权值,以便让前一个弱分类器无法捕捉并由后续分类器学习。Adaboost弱分类器快速训练和预测,且不需要太多超参数调整,但是它倾向于过度拟合数据,并且实力可能不足以解决大型数据集的问题。 GBDT使用决策树作为弱分类器,将每一棵树的预测结果作为下一棵树的预测输入,最后对所有树的预测结果进行加权求和。GBDT可以很好地处理线性和非线性问题,但是它倾向于过度拟合数据,需要进行精细调整参数,并且需要较长时间的训练时间。 XGBoost结合了GBDT的优势和树的强大性质。它采用了一些优秀的技术,如Boosting树算法,Shrinkage,Column Sampling和Pruning Nodes,以提高模型的性能和降低过拟合风险。XGBoost可以处理大规模数据集和高维数据集,并且速度较快,但需要的资源较多,如内存、计算能力和高质量的数据集。 LightGBM是XGBoost的新一代版本,采用了GOI(Gradient-based One-side Sampling)算法和Histogram-based Gradient Boosting方法来加快训练速度和降低内存占用。GOI算法通过对数据进行一侧采样来提高训练速度,而直方图梯度提升方法将节点分裂建模为一个直方图分桶过程,以减少节点分裂的计算成本。LightGBM对大数据集的处理能力很强,速度相对较快,但对于处理小数据集的效果可能不明显。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值