1、GBDT说明
GBDT是Gradient Boosting Decison Tree的简称,其中Gradient是梯度,是这个方法的核心;Boosting是提升树,是这个方法的框架;Decision Tree是决策树,是实现这个方法用到的模型。
GBDT可以解决回归问题,经过一些处理也可以解决分类(二类、多类)问题,但是用到的树都是回归树,这一点需要牢记。
首先通过简单的回归例子说明一下提升树(Boosting):
如果样本1的输出真实值为10,树T1针对样本1的预测值为18,
然后我们让树T2去拟合样本1的值为10-18=-8(残差)。如果树T2的输出值为-10,
我们再让树T3去拟合-8-(-10)=2(残差),结果树T3的预测值为1。
如果到此迭代结束,在最终对样本1的预测