机器学习
文章平均质量分 78
米饭咔咔吃
知识备忘录
展开
-
集成学习—LightGBM
水平有限,目前还只能是参考别人的文章写总结。参考Y学习使我快乐V小雨姑娘原创 2021-04-27 00:36:40 · 1055 阅读 · 0 评论 -
集成学习——XGBoost
看了好几次XGBoost的文章,感觉总是过目就忘,以下对学习过的链接进行总结。参考:July—XGBoost小雨姑娘—XGBoost雪伦_—XGBoostV学习使我快乐V—XGBoostXGBoost是陈天奇等人开发的一个开源机器学习项目,高效地实现了GBDT算法并进行了算法和工程上的许多改进。XGBoost本质上还是一个GBDT,但是力争把速度和效率发挥到极致,所以叫X (Extreme) GBoosted,那么XGBoost也是boosting方法。XGBoost是一个优化的分布式梯度增转载 2021-04-27 00:33:51 · 450 阅读 · 0 评论 -
集成学习——Boosting提升方法2之前向分步算法、提升树
前向分布算法Adaboost每次学习单一分类器以及单一分类器的参数(权重)。Adaboost算法可以解释为:模型为加法模型、损失函数为指数函数、学习算法为 前向分布算法 的二分类学习算法。前向分布算法是集成学习的重要框架,以至于既可以解决分类问题,也可以解决回归问题。...原创 2021-04-24 01:45:54 · 292 阅读 · 1 评论 -
集成学习——投票法、bagging
投票法思路投票法是一种遵循少数服从多数原则的集成学习模型,通过多个模型的集成降低方差,从而提高模型的鲁棒性和泛化能力。对于回归模型:投票法最终的预测结果是多个其他回归模型预测结果的平均值。对于分类模型:硬投票法的预测结果是多个模型预测结果中出现次数最多的类别;软投票对各类测结果的概率进行求和,最终选取概率之和最大的类标签。软投法考虑到了预测概率这一额外的信息,因此可以得出比硬投票法更加准确的预测结果。硬和软的区别:硬:样本一定属于某一类别,硬生生地分进去。软:根据样本属于各个类别的概率进行原创 2021-04-14 22:08:12 · 1314 阅读 · 1 评论 -
笔记——决策树
以下是我在笔记本上写过的笔记,摘抄自《机器学习》——周志华手动计算的过程,过段时间再传上来原创 2021-04-14 21:34:33 · 109 阅读 · 0 评论 -
机器学习——汇总KMeans
参考:【机器学习】K-Means算法的原理流程、代码实现及优缺点这个解释的过程也可以这个也写得不错代码来源看了很多篇的博客,我终于找到了我能完全理解的代码,我在原代码的基础上加了自己的理解,一步一步的debug终于弄懂它是怎么运行的。主要根据这个图来理解# coding:UTF-8'''Date:20160923@author: zhaozhiyong'''import numpy as npdef load_data(file_path): '''导入数据转载 2020-11-16 16:34:01 · 96 阅读 · 0 评论