模型融合
请叫我Ricardo
一个不断进阶的机器学习及数据挖掘工程师,记录学习的过程,有一个半废的公众号,随缘关注:数据挖掘初学者
展开
-
集成学习之Boosting(二)GBDT和XGBoost
前言上个月我说要写关于梯度提升树和XGBoost的博客,结果写比赛文档和做视频耽搁了,期间还专门读了读陈天齐的原论文,兜兜转转,终于可以开始写博客了。这篇博客我会简单介绍GBDT,和XGBoost的推导,毕竟XGBoost是基于GBDT的改进,还有XGBoost相对于CBDT的提升与工程化运用。本篇博客参考机器学习-一文理解GBDT的原理GBDT算法原理深入解析原版论文(en)GBDT介绍我们知道,Boosting模型通过弱分类器的不断相加得到最终的强学习器,Adaboost是通过边训练边修原创 2020-06-12 23:08:59 · 524 阅读 · 0 评论 -
集成学习之模型融合(二)Blending
简介blending是和stack同性质的集成学习方法,都是通过组合多个弱学习器生成的输出作为最终学习器的输入而得到一个更好的结果,但是他们的数据划分方式有所区别,而且生成次级训练集的方法更简单了。其实也是很久之后我才想起来我写了stacking,所以不能漏掉blending。想看stacking的请跳转模型融合stacking基本思想1、划分数据集我们将data划分为train和tes...原创 2020-04-01 23:53:22 · 1319 阅读 · 3 评论