机器学习
文章平均质量分 85
杨提督门下
这个作者很懒,什么都没留下…
展开
-
周志华西瓜南瓜书学习(二)
(一):https://blog.csdn.net/liuxingxing_sun/article/details/118713819文章目录支持向量机支持向量机原创 2021-07-29 17:27:12 · 200 阅读 · 0 评论 -
周志华西瓜南瓜书学习(一)
模型评估由于前两章内容比较熟悉,只简单总结一下公式评估方法留出法交叉验证法自助法性能度量1.均方误差:E(f;D)=1m∑i=1m(f(xi)−yi)2E(f;D)=\frac {1}{m}\sum_{i=1}^{m}(f(x_i)-y_i)^{2}E(f;D)=m1i=1∑m(f(xi)−yi)2更一般的,E(f;D)=∫x∽ D(f(xi)−yi)2p(x)dxE(f;D)=\int_{x\backsim\ D}(f(x_i)-y_i)^{2原创 2021-07-13 23:48:36 · 490 阅读 · 0 评论 -
集成学习案例——工业蒸汽预测
文章目录学习背景简介背景介绍数据信息评价指标数据观测与初步处理数据具体处理进一步观测与特征工程模型训练学习背景简介背景介绍火力发电的基本原理是:燃料在燃烧时加热水生成蒸汽,蒸汽压力推动汽轮机旋转,然后汽轮机带动发电机旋转,产生电能。在这一系列的能量转化中,影响发电效率的核心是锅炉的燃烧效率,即燃料燃烧加热水产生高温高压蒸汽。锅炉的燃烧效率的影响因素很多,包括锅炉的可调参数,如燃烧给量,一二次风,引风,返料风,给水水量;以及锅炉的工况,比如锅炉床温、床压,炉膛温度、压力,过热器的温度等。我们如何使用以上原创 2021-05-23 22:27:39 · 917 阅读 · 9 评论 -
集成学习案例——幸福感预测
文章目录案例简介数据处理步骤集成学习lightBGMXGBoostRandomForestGradientBoostingKernelRidgeRegressor案例简介案例通过问卷调查收集而成,数据来源于国家官方的《中国综合社会调查(CGSS)》文件中的调查结果中的数据,数据来源可靠可依赖。通过使用包括个体变量(性别、年龄、地域、职业、健康、婚姻与政治面貌等等)、家庭变量(父母、配偶、子女、家庭资本等等)、社会态度(公平、信用、公共服务等等)等139维度的信息来预测其对幸福感的影响。赛题要求使用以原创 2021-05-18 21:48:41 · 392 阅读 · 0 评论 -
集成学习(四)——Blending和Stacking
文章目录Blending集成学习算法简介案例决策边界Blending集成学习算法简介Blending集成学习方式如下:(1) 将数据划分为训练集和测试集(test_set),其中训练集需要再次划分为训练集(train_set)和验证集(val_set);在此步骤中,总的数据集被分成训练集(80%)和测试集(20%),在这80%的训练集中再拆分训练集(70%)和验证集(30%)。因此拆分后的数据集由三部分组成:训练集80%* 70% 、测试集20%、验证集80%* 30% 。训练集是为了训练模型,原创 2021-05-11 23:53:28 · 418 阅读 · 0 评论 -
集成学习(三)
集成学习(一):集成学习(二):origin from: datawhalereference:文章目录XGBoost简介构造目标函数叠加式训练泰勒级数近似定义一棵树如何寻找树的形状如何找到最优节点分裂XGBoost简介构造目标函数(1) 构造目标函数:假设有K棵树,则第i个样本的输出为y^i=ϕ(xi)=∑k=1Kfk(xi),fk∈F\hat{y}_{i}=\phi\left(\mathrm{x}_{i}\right)=\sum_{k=1}^{K} f_{k}\left(\mathr原创 2021-04-24 23:41:05 · 250 阅读 · 0 评论 -
集成学习(二)
文章目录BoostingAdaboost简介案例算法实现BoostingAdaboost简介Boosting和Bagging所使用的分类器的类型都是一致的。在前者中,不同的分类器是通过串行训练而获得的,每个新分类器都根据已训练出的分类器的性能来进行训练。boosting通过集中关注被已有分类器错分的那些数据来获得新的分类器。Boosting分类的结果是基于所有分类器的加权求和结果。在bagging中分类器权重相等,而在boosting中,分类器的权重并不是相等,每个权重代表的是其对应分类器在上一轮原创 2021-04-19 15:53:51 · 134 阅读 · 0 评论 -
集成学习(一)
origin from: datawhale文章目录投票法简介案例Bagging简介案例投票法简介投票法是一种少数服从多数原则的集成学习模型。通过多个模型的集成降低方差,从而提高模型的鲁棒性。理想情况下,好的预测效果应当优于任何一个基模型的预测效果。对于回归模型来说,投票法最终的预测结果是多个其他回归模型预测结果的平均值。对于分类模型,硬投票法预测结果是多个模型预测结果中出现次数最多的类别;软投票对各类预测结果的概率进行求和,最终选取概率之和最大的类标签。在投票法中,我们还需要考虑到不同的基模型可原创 2021-04-14 22:01:05 · 146 阅读 · 1 评论