![](https://img-blog.csdnimg.cn/20190918135101160.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
【集成学习】Ensemble Learning
文章平均质量分 61
集成学习
Mr.zwX
2019年进入电子科技大学接触计算机(方向涉及:机器学习/深度学习(CV、NLP、GNN)、时空数据挖掘、一点点开发(部分后端/前端)),2022年在电子科技大学实验室科研,2023年在复旦大学NLP组实习,2023年9月至今,在北京大学人工智能研究院科研(模型加速/压缩、隐私计算)...保持努力,anyway,这个平台是我记录一些乱七八糟计算机笔记的地方,供(记性不好的)自己复习,同时也分享给大家
如需联系:请发邮件至wenxuan225@qq.com
展开
-
Ensemble Learning之GBDT及XGBoost算法手写推导
在推导XGBoost原理之前,需要对GBDT进行学习,GBDT是XGBoost的基础。 由于存在较多公式,所以这次学习过程选择手写笔记的形式~ 更多算法介绍 优缺点总结 源码见文末的参考资料,本文记录算法的推导及原理。 参考资料: 通俗理解kaggle比赛大杀器xgboost NLP-LOVE 一些有关Ensemble Learning的学习记录 ...原创 2021-07-31 23:04:51 · 191 阅读 · 0 评论 -
一些有关Ensemble Learning的学习记录
首先是上周花了三四天时间大致看了看Ensemble Learning的一些知识,原理尚未很深入去学,宏观上理解了一下集成学习的思想和一些实现原理。 主要是学习了并行模型bagging和串行模型boosting两种,以及堆叠式的stacking。 集成策略主要是avg vote和learning combiner三种。 文章目录1 集成学习手写笔记2 Ensemble Learning Demo2.1 Voting2.2 Bagging2.3 AdaBoost2.4 XGBoost2.5 CatBoost原创 2021-06-13 00:03:51 · 407 阅读 · 8 评论