【原创】GBDT(MART)概念简介

GBDT(Gradient Boosting Decision Tree)是机器学习中的回归算法,通过组合多棵决策树预测。存在两种描述版本:残差版本学习前N-1棵树的残差,而Gradient版本学习梯度下降值。虽然两者在总体流程和输入输出上一致,但在每步迭代时的求解方法不同。GBDT中的树是回归树,Boost指的是样本目标的迭代,不同于Adaboost的权重分配或Bootstrap的重采样。Shrinkage是逐步求精的手段,不同于Gradient的步长。GBDT可以应用于各种可导的cost function,使其在回归、排序等问题上展现出灵活性。
摘要由CSDN通过智能技术生成

GBDT(Gradient Boosting Decision Tree) 又叫 MARTMultiple Additive Regression Tree),是一种用于回归的机器学习算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。当把目标函数做变换后,该算法亦可用于分类或排序。

 

本文主要从高层明确几个GBDT概念,主要讲GBDT的两个版本以及GBDT是什么不是什么。详细介绍较长,见另一篇博文 http://blog.csdn.net/suranxu007/article/details/49910323。

 

1. GBDT的两个不同版本(重要)

目前GBDT有两个不同的描述版本,两者各有支持者,读文献时要注意区分。残差版本GBDT说成一个残差迭代树,认为每一棵回归树都在学习前N-1棵树的残差,之前我写的GBDT入门教程主要在描述这一版本,ELF开源软件实现中用的也是这一版本。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值