机器学习_第二篇 分类算法(4)_集成学习【boosting(提升法)—梯度提升决策树(GBDT)】

梯度提升决策树(Gradient Boost Decision Tree  GBDT)又叫 MART (Multiple  Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有书的结论累计起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力较强的算法。这些年被用于搜索排序的机器学习模型而引起大家的关注。

A、GBDT的优点:1,效果确实挺不错的;2,既可以做分类又可以做回归;3,可以筛选特征。

B、GBDT的训练过程

C、GBDT算法内部工作原理

GBDT主要有三个概念组成:Regression Decision Tree(即DT 回归树),Gradient Boosting(即GB 梯度迭代),Shrinkage(算法的一个重要演进分支,目前大部分源码都按该版本实现)

1、DT:回归树 Regression Decision Tree

决策树分为两大类:回归树和分类树。前者用于预测实数值(是一个值),如明天的温度、用户的年龄、网页的相关程度;后者用于分类标签值,如晴天/阴天/雾天、用户性别、网页是否是垃圾页面。这里要强调的是,前者的结果加减是有意义的,后者则无意义。GBDT的核心在于累加所有树的结果作为最终结果,就像前面对年龄的累加,而分类树的结果是没办法累加的,所以GBDT中的树都是回归树,不是分类树。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
GBDT(Gradient Boosting Decision Tree)算是一种建立在决策树基础上的迭代学习算,它通过加权的累加使得前一步所得到的弱分类器的误差函数在接下来的学习更加关注错误分类的数据点,最终形成一个强分类器,可以应用于分类和回归问题。 梯度提升通过将决策树作为分类器进行提升,将决策树的弱学习算进行组合,得到一个强大的学习算。在每个迭代,构建一个新的决策树,使用梯度下降算优化损失函数,从而更加准确地预测新数据点的标签。 GBDT的运行过程是不断迭代,每次迭代都会生成一个新的弱学习器。这个弱学习器由子树组成,每个子树都是一个分类器,并且被加权以形成一个强分类器。在每一次迭代,算根据当前模型的误差,在新的弱学习器尝试找到拟合不足的数据点,以最小化损失函数。在训练完所有的树后,算找到所有树的加权和,以形成最终的预测模型。 GBDT有许多优点。首先,它很容易使用,可以通过简单的数据预处理和模型训练获得好的结果。其次,GBDT具有很高的准确性和稳定性,能够有效地避免过拟合问题。并且,它能够很好地处理高维度数据,基本不需要进行特征选择、特征缩放等繁琐的预处理工作。 此外,GBDT还可以应用于特征选择,自动选择最重要的特征属性,从而减少训练时间和消耗。它也可以处理类别不平衡的数据集,能够在分类错误的数据点上更加关注,并生成更准确的分类器。 GBDT的局限性也比较明显,主要是训练缓慢。每个弱分类器在训练过程都需要计算梯度下降算,造成训练时间增加。同时,对于大规模数据集,它需要大量的计算资源和内存,成本较高。 总之,GBDT是一种强大的机器学习,能够有效地解决许多分类和回归问题。尽管它具有一些限制,但它被广泛应用于数据挖掘、模式识别、预测等领域,成为机器学习领域备受关注的算之一。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值