立即学习:https://edu.csdn.net/course/play/10582/236121?utm_source=blogtoedu
XGBoost
:eXtreme Gradient Boosting
dmlc
可自定义损失函数:采用二阶Taylor展开金丝损失函数
规范化正则项
Recall:回归树定义:把树拆分成结构部分q,叶子部分w
贪心算法建树
从深度为0的树开始
对树的每个叶子节点尝试增加一个分裂点:
Recall增益分裂
增益可能为负,引入新叶子有复杂度惩罚
提前终止:
过后剪枝