GBDT(Gradient boosting decision tree)是一种迭代的决策树算法,又叫MART,他通过构造多颗决策树,并把多颗决策树的结果累加起来作为最后的预测输出。该算法将决策树与集成做了很好的结合
生成梯度提升树的案例:
具体步骤:
(1)根据原始数据生成回归树
(2)然后计算残差,用残差替代y,生成新的数据。
残差=真实值-预测值
(3)用新生成的数据生成第2颗生成树
(4)然后,开始计算新残差,用新残差替换旧残差,再次生成一个新的数据。
(5)预测