GBDT(梯度提升决策树)
看了一篇博客,觉得讲解得比较好,本文只是我的一篇笔记,主要是为了检验自己是否真的懂了。要看详细讲解,推荐参考https://blog.csdn.net/w28971023/article/details/8240756
按照博客中的介绍,对GBDT中的名词逐个进行解释。
-决策树
-提升
-梯度
决策树
一般听到决策树都会想到分类问题,如ID3,C4.5 ,计算信息增益;但是此处的决策树是回归树,构建回归树时,计算所有特征的所有取值后的平方误差(如特征A1,取值q1,则平方将c<=q1,分为一类,将c>q1分为另一类,将同一类中的所有取值的平均值作为预测值cm,用真实值与预测值的平方误差决定特征和值的选择)。
还是引用上述链接博客中的图,当每个叶节点就一个值,或是满足某一预设条件时,停止,得到回归树。