机器学习
文章平均质量分 92
Toooooopia
这个作者很懒,什么都没留下…
展开
-
机器学习-总结笔记-集成学习-Bagging/Boosting/Stacking
作业大概是学生时代激发自主学习的最好动力,但商科人啃ML真是要哭了T_T。也是实在看公式费力的很,基于自己易理解的角度,能文字表述的都转文字表述了(商科人的无奈)。文章目录集成学习Boosting——‘串行’AdaBoostXGBoostBagging——‘并行’随机森林 Random ForestStacking集成学习我理解的集成学习就好比是“三个臭皮匠赛过诸葛亮”。利用多个学习器使得最终精度越来越高。Boosting——‘串行’思路:根据数据集训练1st 学习器1st 学习器分类错误的原创 2021-06-14 17:30:10 · 230 阅读 · 0 评论 -
机器学习-总结笔记-基本术语&模型评估与选择
自学西瓜书总结笔记,间断补充学校课程。文章目录常用基础术语模型评估与选择评估方法常用基础术语数据集data set示例instance / 样本sample属性attribute / 特征feature属性值 attribute value属性空间attribute space / 样本空间sample space / 输入空间训练集 / 训练样本 / 训练数据 / 测试集 / 测试样本 / 测试数据模型 / 学习器假设 hypothesis:习得模型对应了关于数据的某种潜在的规律预原创 2021-06-14 15:25:18 · 203 阅读 · 0 评论 -
机器学习-总结笔记-决策树-代码实现
1)导入包和数据(来自sklearn)%matplotlib inline # 如果不是jupyter notebook 可无视import matplotlib.pyplot as pltimport pandas as pdfrom sklearn.datasets.california_housing import fetch_california_housing2)查看数据描述housing = fetch_california_housing()print(housing.DE原创 2021-06-10 22:58:52 · 486 阅读 · 3 评论 -
机器学习-总结笔记-决策树-ID3/C4.5/CART
鉴于这个机器学习在课上就没咋听明白过,自己慢慢啃吧。。。内容来自西瓜书和学校课件。文章目录决策树概述信息增益&信息熵信息熵信息增益基尼指数 Gini index剪枝处理 pruning预剪枝 prepruning后剪枝 postpruning连续值和缺失值连续值缺失值多变量决策树ID3决策树C4.5算法CART决策树概述可以处理分类问题也可以处理回归问题;分类问题看比例、回归问题看均值。目的是找到泛化能力强即处理未见示例能力强的模型。信息增益&信息熵信息熵信息熵:公式:−原创 2021-06-10 14:52:35 · 200 阅读 · 0 评论 -
机器学习-总结笔记-贝叶斯学习
本文为自学西瓜书和学校课堂整理笔记。文章目录导论贝叶斯学习贝叶斯学习方法特性贝叶斯学习方法困难贝叶斯法则贝叶斯判定准则先验概率 & 后验概率 & 似然度贝叶斯公式极大后验假设 MAP假定可推出极大似然估计 Maximum Likelihood Estimation,MLE贝叶斯推理举例朴素贝叶斯分类器朴素贝叶斯分类器评价导论贝叶斯学习贝叶斯学习方法特性观察到的每个训练样例可以增量地降低或升高某假设的估计概率。先验知识可以与观察数据一起决定假设的最终概率。可允许假设做出不确定原创 2021-03-29 14:45:41 · 342 阅读 · 0 评论