从0开始的Kaggle竞赛
文章平均质量分 97
KING BOB!!!
这个作者很懒,什么都没留下…
展开
-
集成学习之Boosting方法系列_CatBoost
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:CatBoost。原创 2024-01-29 09:51:32 · 1021 阅读 · 0 评论 -
集成学习之Boosting方法系列_XGboost
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:XGBoost。原创 2024-01-28 11:21:18 · 1249 阅读 · 0 评论 -
Kaggle竞赛系列_SpaceshipTitanic金牌方案分析_建模分析
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。今天要分析的是一篇大神的解决方案,看完后觉得干货满满,由衷地敬佩他们对数据分析的细致程度,对比之下只觉得之前自己的分析仅仅是表面功夫,单纯靠着模型的强大能力去完成任务。看来以后还是得不断地向各位前辈大佬学习,完善自己的解决方案!!!项目代码 :Kaggle竞赛系列_SpaceshipTitanic比赛。原创 2024-01-28 10:40:47 · 736 阅读 · 0 评论 -
Kaggle竞赛系列_SpaceshipTitanic金牌方案分析_数据处理
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。今天要分析的是一篇大神的解决方案,看完后觉得干货满满,由衷地敬佩他们对数据分析的细致程度,对比之下只觉得之前自己的分析仅仅是表面功夫,单纯靠着模型的强大能力去完成任务。看来以后还是得不断地向各位前辈大佬学习,完善自己的解决方案!!!项目代码 :Kaggle竞赛系列_SpaceshipTitanic比赛。原创 2024-01-27 18:18:09 · 794 阅读 · 1 评论 -
Kaggle竞赛系列_SpaceshipTitanic金牌方案分析_数据分析
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。今天要分析的是一篇大神的解决方案,看完后觉得干货满满,由衷地敬佩他们对数据分析的细致程度,对比之下只觉得之前自己的分析仅仅是表面功夫,单纯靠着模型的强大能力去完成任务。看来以后还是得不断地向各位前辈大佬学习,完善自己的解决方案!!!项目代码 :Kaggle竞赛系列_SpaceshipTitanic比赛。原创 2024-01-27 16:08:48 · 1155 阅读 · 1 评论 -
Kaggle竞赛系列_SpaceshipTitanic比赛
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。我使用的是基于LightGBM,结合交叉验证进行预测的单模方案,最终得分为0.79,有很多地方还可以改进,如果您愿意分享您宝贵的经验和知识,我将不胜感激。该比赛涉及数学建模、机器学习、随机森林、分类算法等多个领域,完整过一遍流程所获甚多。原创 2024-01-25 13:15:03 · 1311 阅读 · 0 评论 -
kaggle竞赛系列_特征筛选
Kaggle竞赛补充内容:特征筛选特征筛选(Feature Selection)是机器学习和数据分析中的一个重要步骤,其主要目的是从原始特征集合中选择最相关、最有价值的特征,以用于构建模型、提高模型性能或减少计算成本。特征选择的核心思想是从所有可用特征中筛选出对于解决问题最有用的特征,从而提高模型的泛化能力和效率。特征筛选是指从原始的特征集合中挑选出一个子集,以在构建机器学习模型时用于训练模型、提高模型性能或减少计算成本。原创 2024-01-24 12:44:05 · 966 阅读 · 0 评论 -
集成学习之Boosting方法系列_LightGBM
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:LightGBM。原创 2024-01-23 21:14:44 · 1033 阅读 · 1 评论 -
Kaggle竞赛系列_Titanic比赛
本菜鸡第一次尝试此类比赛,踩了很多坑,也有很多地方还可以改进,最终得分也只有0.76,如果您愿意分享您宝贵的经验和知识,我将不胜感激。“Titanic - Machine Learning from Disaster” 是 Kaggle 平台上的一个知名比赛,参与者需使用机器学习模型预测哪些乘客在泰坦尼克号沉船事故中幸存。比赛提供了包含各种特征的乘客数据,如性别、年龄、舱位等。参赛作品将根据预测幸存结果的准确性进行评估。原创 2024-01-19 16:37:56 · 534 阅读 · 1 评论