数学建模
文章平均质量分 97
KING BOB!!!
这个作者很懒,什么都没留下…
展开
-
集成学习之Boosting方法系列_CatBoost
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:CatBoost。原创 2024-01-29 09:51:32 · 1432 阅读 · 0 评论 -
集成学习之Boosting方法系列_XGboost
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:XGBoost。原创 2024-01-28 11:21:18 · 1324 阅读 · 0 评论 -
Kaggle竞赛系列_SpaceshipTitanic金牌方案分析_建模分析
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。今天要分析的是一篇大神的解决方案,看完后觉得干货满满,由衷地敬佩他们对数据分析的细致程度,对比之下只觉得之前自己的分析仅仅是表面功夫,单纯靠着模型的强大能力去完成任务。看来以后还是得不断地向各位前辈大佬学习,完善自己的解决方案!!!项目代码 :Kaggle竞赛系列_SpaceshipTitanic比赛。原创 2024-01-28 10:40:47 · 883 阅读 · 0 评论 -
Kaggle竞赛系列_SpaceshipTitanic金牌方案分析_数据处理
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。今天要分析的是一篇大神的解决方案,看完后觉得干货满满,由衷地敬佩他们对数据分析的细致程度,对比之下只觉得之前自己的分析仅仅是表面功夫,单纯靠着模型的强大能力去完成任务。看来以后还是得不断地向各位前辈大佬学习,完善自己的解决方案!!!项目代码 :Kaggle竞赛系列_SpaceshipTitanic比赛。原创 2024-01-27 18:18:09 · 971 阅读 · 1 评论 -
Kaggle竞赛系列_SpaceshipTitanic金牌方案分析_数据分析
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。今天要分析的是一篇大神的解决方案,看完后觉得干货满满,由衷地敬佩他们对数据分析的细致程度,对比之下只觉得之前自己的分析仅仅是表面功夫,单纯靠着模型的强大能力去完成任务。看来以后还是得不断地向各位前辈大佬学习,完善自己的解决方案!!!项目代码 :Kaggle竞赛系列_SpaceshipTitanic比赛。原创 2024-01-27 16:08:48 · 1476 阅读 · 1 评论 -
Kaggle竞赛系列_SpaceshipTitanic比赛
Spaceship Titanic比赛,类似Titanic比赛,只是增加了更多的属性以及更大的数据量,仍是一个二分类问题。我使用的是基于LightGBM,结合交叉验证进行预测的单模方案,最终得分为0.79,有很多地方还可以改进,如果您愿意分享您宝贵的经验和知识,我将不胜感激。该比赛涉及数学建模、机器学习、随机森林、分类算法等多个领域,完整过一遍流程所获甚多。原创 2024-01-25 13:15:03 · 1408 阅读 · 0 评论 -
kaggle竞赛系列_特征筛选
Kaggle竞赛补充内容:特征筛选特征筛选(Feature Selection)是机器学习和数据分析中的一个重要步骤,其主要目的是从原始特征集合中选择最相关、最有价值的特征,以用于构建模型、提高模型性能或减少计算成本。特征选择的核心思想是从所有可用特征中筛选出对于解决问题最有用的特征,从而提高模型的泛化能力和效率。特征筛选是指从原始的特征集合中挑选出一个子集,以在构建机器学习模型时用于训练模型、提高模型性能或减少计算成本。原创 2024-01-24 12:44:05 · 1090 阅读 · 0 评论 -
集成学习之Boosting方法系列_LightGBM
集成学习是一种机器学习方法,通过将多个弱学习器(weak learners)组合成一个更强大的集成模型来提高预测性能和泛化能力。Boosting 是一种迭代的集成方法,它通过逐步调整训练数据的权重和/或模型的权重来训练多个弱学习器,以便每个弱学习器更关注先前被错误分类的样本。AdaBoost、Gradient Boosting 和 XGBoost 都是 Boosting 的变种。本文将介绍Boosting方法的其中一种:LightGBM。原创 2024-01-23 21:14:44 · 1137 阅读 · 1 评论 -
数学建模系列_随机森林
数学建模备赛内容62 随机森林模型基本原理_哔哩哔哩_bilibili什么是随机森林随机森林是一种集成学习方法,通过组合多个决策树来解决分类和回归问题。每棵树都是根据随机选择的训练数据和特征构建的,最终的预测结果是基于多个树的投票(分类问题)或平均(回归问题)得出的。随机森林具有良好的泛化能力、鲁棒性和高效性,适用于各种机器学习任务。本质属于集成学习方法、由多棵决策树组成,每棵决策树都是一个分类器,将多个分类器的结果进行投票。(1)具有极高的准确率(2)能够使用在大数据上(3)不需要降维。原创 2024-01-23 12:38:41 · 3060 阅读 · 1 评论 -
数学建模系列_决策树
数学建模备赛内容57 什么是决策树_哔哩哔哩_bilibili什么是决策树:决策树(Decision Tree)是一种常用于机器学习和数据挖掘领域的监督学习算法,它用于建立一个类似于树状结构的模型,用于进行分类和回归任务。决策树模型基于一系列的决策规则,每个规则都将数据集中的样本分割成不同的子集,直到最终达到某个决策或目标。在构建决策树模型时,算法会根据训练数据集中的特征和目标值来自动选择最优的分割点和规则,以最大程度地提高模型的预测性能。原创 2024-01-20 09:40:14 · 1543 阅读 · 0 评论