![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
知识点总结
徐周
这个作者很懒,什么都没留下…
展开
-
GBDT XGBOOST区别
传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。xgboost在代价函数中加入了正则项,用于控制模型的复杂度,学习出来的模型更加简单,防止过拟合。xgboost在进行完一次迭代后,会将叶子节点的权重乘上缩减(shrinkage)系数,主要是为了削弱每棵树的影响,让后面有更大的学习空间。...原创 2019-02-23 14:52:39 · 110 阅读 · 0 评论 -
LightGBM源码解读
参考:https://blog.csdn.net/weixin_42001089/article/details/85343332转载 2019-03-04 18:41:25 · 1223 阅读 · 3 评论