一、原理篇
1.1 温故知新回归树是GBDT的基础,之前的一篇文章曾经讲过回归树的原理和实现。链接如下:
1.2 预测年龄仍然以预测同事年龄来举例,从《回归树》那篇文章中我们可以知道,如果需要通过一个常量来预测同事的年龄,平均值是最佳选择之一。
1.3 年龄的残差我们不妨假设同事的年龄分别为5岁、6岁、7岁,那么同事的平均年龄就是6岁。所以我们用6岁这个常量来预测同事的年龄,即[6, 6, 6]。每个同事年龄的残差 = 年龄 - 预测值 = [5, 6, 7] - [6, 6, 6],所以残差为[-1, 0, 1]
1.4 预测年龄的残差为了让模型更加准确,其中一个思路是让残差变小。如何减少残差呢?我们不妨对残差建立一颗回归树,然后预测出准确的残差。假设这棵树预测的残差是[-0.9,
0, 0.9],将上一轮的预测值和这一轮的预测值求和,每个同事的年龄 = [6, 6, 6] + [-0.9, 0, 0.9] = [5.1,
6, 6.9],显然与真实值[5, 6, 7]更加接近了, 年龄的残差此时变为[-0.1, 0, 0.1],预测的准确性得到了提升。
1.5 GBDT重新整理一下思路,假设我们的预测一共迭代3轮 年龄:[5, 6, 7]
第1轮预测:6, 6, 6
第1轮残差:[-1, 0, 1]
第2轮预测:6, 6, 6 + -0.9, 0, 0.9 = [5.1, 6, 6.9]
第2轮残差:[-0.1, 0, 0.1]
第3轮预测:6, 6, 6 + -0.9, 0, 0.9 + -0