![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
集成学习
文章平均质量分 59
DataVVhale
这个作者很懒,什么都没留下…
展开
-
Ensemble Learning Task 15
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 15 的主要学习内容是蒸汽量预测案例分析 目录背景介绍数据信息评价指标数据字典数据分布核密度估计相关性矩阵归一化特征工程模型搭建与集成 背景介绍 火力发电的基本原理是:燃料在燃烧时加热水生成蒸汽,蒸汽压力推动汽轮机旋转,然后汽轮机带动发电机旋转,产生电能。在这一系列的能量转化中,影响发电效率的核心是锅炉的燃烧效率原创 2021-05-23 23:37:36 · 120 阅读 · 0 评论 -
Ensemble Learning Task 14
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 14 的主要学习内容是 幸福感预测案例分析原创 2021-05-18 22:35:23 · 95 阅读 · 0 评论 -
Ensemble Learning Task 13
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 12 的主要学习内容是 Stacking集成学习算法 Stacking集成学习算法算法步骤优缺点 算法步骤 相较于blending算法,stacking 优缺点 ...原创 2021-05-13 20:55:19 · 87 阅读 · 0 评论 -
Ensemble Learning Task 12
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 12 的主要学习内容是 Blending集成学习算法 Blending集成学习算法算法步骤优缺点 算法步骤 优缺点原创 2021-05-11 22:52:41 · 85 阅读 · 0 评论 -
Ensemble Learning Task 11
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 10 的主要学习内容是 XGBoost 和LightGBM 算法 XGBoost 和LightGBM 算法XGBoostLightGBM XGBoost 基于GBDT算法框架,陈天奇开发了对于GBDT框架进行高效实现的XGBoost算法。具体优势体现在以下几点: 在XGBoost中,算法的目标函数包括了样本的损原创 2021-04-26 21:43:00 · 98 阅读 · 0 评论 -
Ensemble Learning Task 10
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 10 的主要学习内容是 前向分布算法与梯度提升决策树 前向分布算法与梯度提升决策树1. 前向分布算法1.1 加法模型1.2 前向分布算法2梯度提升决策树(GBDT)2.1 基于残差学习的提升树算法2.2 梯度提升决策树算法(GBDT) 1. 前向分布算法 1.1 加法模型 加法模型的基本思想是将不同的模型线性相加原创 2021-04-23 23:48:09 · 92 阅读 · 0 评论 -
Ensemble Learning Task 9
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 9 的主要学习内容是 Boosting的思路与Adaboost算法 Boosting的思路与Adaboost算法Boosting与Adaboost的关系Boosting思路Adaboost算法 Boosting与Adaboost的关系 Boosting是集成学习的一种思想,是通过对弱学习器的组合来达到强学习器效原创 2021-04-20 19:09:44 · 102 阅读 · 0 评论 -
Ensemble Learning Task 8
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 8 的主要学习内容是 Bagging的原理与案例分析 BaggingBagging与投票法的区别原理算法应用案例——随机森林 Bagging 与投票法的区别 与投票法仅仅集成各个模型的预测结果不同,bagging会采用一定的策略来影响基模型的训练,即通过不同的采样增加模型的差异性 原理 Bagging 核心在于自原创 2021-04-17 22:24:14 · 81 阅读 · 0 评论 -
Ensemble Learning Task 7
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 6 的主要学习内容是 投票法与bagging 投票法投票法主要思想优化条件局限性Bagging与投票法的区别原理算法应用案例——随机森林 投票法 主要思想 投票法的主要思想是:少数服从多数,这种集成学习思想在回归与分类问题上都可以使用。其分类大致如下: 优化条件 为了使投票法产生较好的结果,需要满足一定的条件:原创 2021-04-14 15:19:29 · 95 阅读 · 0 评论 -
Ensemble Learning Task 6
Ensemble Learning Task 6 学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 6 的主要学习内容是 评估模型的性能并调参 这一章内容很少,主要包括以下几个部分: 用管道简化工作流 使用k折交叉验证评估模型性能 使用学习和验证曲线调试算法 通过网格搜索进行超参数调优 比较不同的性能评估指标 pipeline能够将一系列操作封装成一个工作流原创 2021-03-29 22:35:53 · 85 阅读 · 0 评论 -
Ensemble Learning Task 5
Ensemble Learning Task 5 学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 5 的主要学习内容是 使用sklearn构建完整的分类项目 具体内容包括了基础的模型构建步骤: 数据准备 选择度量模型性能的指标 选择具体的模型并进行训练 我们使用了sklearn内置的iris数据作为本项目的数据集,ROC曲线作为最终评价指标。 模型的选择包原创 2021-03-26 16:09:03 · 78 阅读 · 0 评论 -
Ensemble Learning Task 4
Ensemble Learning Task 4 学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 4 的主要学习内容是 模型超参调优 具体包含了网格搜索与随机搜索两种调参方法。 网格搜索 网格搜索通过对所有超参进行排列组合,尝试所有的超参可能性。这种调参方法能够得到更优的结果,但同时也带来了巨大的计算消耗。因此比较适合在小数量集上使用。 随机搜索 随机搜索相原创 2021-03-24 19:04:47 · 83 阅读 · 0 评论 -
Ensemble Learning Task 3
Ensemble Learning Task 3 学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 3 的主要学习内容是 掌握偏差与方差理论 这一部分内容主要是优化基础模型,分为以下几个部分: 训练均方误差与测试均方误差 偏差方差的权衡 特征提取 压缩估计(正则化) 降维 第一部分主要是通过对训练与测试的均方误差进行比较,从评价指标的角度对过拟合现象进行深入原创 2021-03-22 23:56:23 · 90 阅读 · 0 评论 -
Ensemble Learning Task 2
Ensemble Learning Task 2 学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 2 的主要学习内容是 使用sklearn构建完整的回归项目 收集数据集并选择合适的特征 选择度量模型性能的指标 选择具体的模型并进行训练 一般来说,一个完整的机器学习项目分为以下步骤: 明确项目任务:回归/分类 收集数据集并选择合适的特征。 选择度量模型性原创 2021-03-18 18:06:43 · 76 阅读 · 0 评论 -
Ensemble Learning Task 1
Ensemble Learning Task 1 Day 1 学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning Task 1 的主要学习内容是机器学习问题三大基础方向。 回归 分类 无监督 不是很清楚为什么这里要这么分,通常如果按照数据集特征进行问题划分的话,会有监督、无监督、半监督等多个分类。同时,分类问题在一定程度上可以看做是回归问题在特定阈值下的特殊呈现方式。原创 2021-03-15 22:28:21 · 83 阅读 · 0 评论