![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
集成学习
文章平均质量分 97
KING BOB!!!
这个作者很懒,什么都没留下…
展开
-
集成学习之Boosting方法系列_CatBoost
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:CatBoost。原创 2024-01-29 09:51:32 · 1184 阅读 · 0 评论 -
集成学习之Boosting方法系列_XGboost
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:XGBoost。原创 2024-01-28 11:21:18 · 1293 阅读 · 0 评论 -
Kaggle竞赛系列_SpaceshipTitanic比赛
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。我使用的是基于LightGBM,结合交叉验证进行预测的单模方案,最终得分为0.79,有很多地方还可以改进,如果您愿意分享您宝贵的经验和知识,我将不胜感激。该比赛涉及数学建模、机器学习、随机森林、分类算法等多个领域,完整过一遍流程所获甚多。原创 2024-01-25 13:15:03 · 1352 阅读 · 0 评论 -
集成学习之Boosting方法系列_LightGBM
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:LightGBM。原创 2024-01-23 21:14:44 · 1083 阅读 · 1 评论