参考:
陈天奇slides : https://homes.cs.washington.edu/~tqchen/pdf/BoostedTree.pdf
Friedman GBDT 论文: http://ishare.down.sina.com.cn/28081146.pdf?ssig=NHjGnmOrHr&Expires=1514088754&KID=sina,ishare&ip=&fn=Greedy+function+approximation+A+gradient+boosting+machine+%28magazine%29.pdf
xgboost的原理,在陈天奇的ppt里讲的很清楚。这里需要注意的就是树的构造是直接根据损失函数的增益来选取分裂特征。
GBDT论文里,不仅讲了一般的回归问题GB的做法,也讲了回归树和分类树的做法。网上看到好多讲GBDT的,都混为一谈。