【集成学习】Ensemble Learning
文章平均质量分 61
集成学习
Mr.zwX
2019年进入电子科技大学接触计算机(方向涉及:机器学习/深度学习(CV、NLP、GNN)、时空数据挖掘、一点点开发(部分后端/前端)),2022年在电子科技大学实验室科研,2023年在复旦大学NLP组实习,2023年9月至今,在北京大学人工智能研究院科研(模型加速/压缩、隐私计算)...保持努力,anyway,这个平台是我记录一些乱七八糟计算机笔记的地方,供(记性不好的)自己复习,同时也分享给大家
如需联系:请发邮件至[email protected]
展开
-
Ensemble Learning之GBDT及XGBoost算法手写推导
在推导XGBoost原理之前,需要对GBDT进行学习,GBDT是XGBoost的基础。由于存在较多公式,所以这次学习过程选择手写笔记的形式~更多算法介绍 优缺点总结 源码见文末的参考资料,本文记录算法的推导及原理。参考资料:通俗理解kaggle比赛大杀器xgboostNLP-LOVE一些有关Ensemble Learning的学习记录...原创 2021-07-31 23:04:51 · 170 阅读 · 0 评论 -
一些有关Ensemble Learning的学习记录
首先是上周花了三四天时间大致看了看Ensemble Learning的一些知识,原理尚未很深入去学,宏观上理解了一下集成学习的思想和一些实现原理。主要是学习了并行模型bagging和串行模型boosting两种,以及堆叠式的stacking。集成策略主要是avg vote和learning combiner三种。文章目录1 集成学习手写笔记2 Ensemble Learning Demo2.1 Voting2.2 Bagging2.3 AdaBoost2.4 XGBoost2.5 CatBoost原创 2021-06-13 00:03:51 · 369 阅读 · 8 评论