机器学习--西瓜书
文章平均质量分 93
汪呀呀呀呀呀呀呀
这个作者很懒,什么都没留下…
展开
-
《机器学习》周志华第10章降维与度量学习 思维导图+笔记+习题
K-Means与LVQ都试图以类簇中心作为原型指导聚类,其中K-Means通过EM算法不断迭代直至收敛,LVQ使用真实类标辅助聚类;高斯混合聚类采用高斯分布来描述类簇原型;密度聚类则是将一个核心对象所有密度可达的样本形成类簇,直到所有核心对象都遍历完;最后层次聚类是一种自底向上的树形聚类方法,不断合并最相近的两个小类簇。本篇将讨论机器学习常用的方法–降维与度量学习。降维与度量学习维数(dimensionality):样本的特征数“维数灾难”:维数非常大具体表现在:在高维情形下,数据样本将变得十分稀疏原创 2021-01-04 22:25:35 · 1658 阅读 · 0 评论 -
《机器学习》周志华--第9章聚类 笔记+习题
https://www.cnblogs.com/hzcya1995/p/13302691.html9.1聚类任务9.2性能度量基于式 (9.1 ) ~ (9.4),可导出下面这些常用的聚类性能度量外部指标:Jaccard 系数(Jaccard Coefficient ,简称JC)FM 指数(Fowlkes and Mallows lndex,简称FMI)Rand 指数(Rand Index,简称RI)基于这四个式子,可导出下面这些常用的聚类性能度量内部指标:DB转载 2020-11-18 05:07:59 · 4249 阅读 · 0 评论 -
《机器学习》周志华--第8章集成学习。笔记+习题
集成学习的目的是: 通过适当的学习方法将弱学习器转化为强学习器方法要点为:优而不同8.1个体与集成1.集成学习概念和一般结构集成学习概念集成学习(多分类器系统/基于委员会的学习):生成一组个体学习器并将它们结合起来。示意图集成学习可得到比单一学习器更好的泛化性能,尤其是弱学习器:泛化性能略大于50%2.结构3.性能举一个简单的例子:在二分类任务中,假定三个分类器在三个测试样本上的表现如图所示:通过单一变量法,a表示好而不同的分类器,b表示好但相同的分类器,c表示不好.原创 2020-11-18 03:28:51 · 7071 阅读 · 1 评论 -
《机器学习》周志华--第7章贝叶斯分类器。笔记+习题
将由结果推原因转化为由原因推结果适用于多分类任务目标:寻找一种分类器,使错分类率最小化/精度最大化7.1贝叶斯决策论(Bayesian decision theory)怎样用非数学语言讲解贝叶斯定理(Bayes theorem)?.我们的任务是寻找一个判定准则以最小化总体风险:R(h)=Ex[R(h(x)∣x)]R\left(h\right)=Ex\left[R\left(h\left(x\right)∣x\right)\right]R(h)=Ex[R(h(x)∣x)]显然,每个.原创 2020-11-17 23:26:51 · 10995 阅读 · 0 评论 -
《机器学习》周志华 第6章支持向量机。笔记+习题
裂开了呀,我高数都快忘完了这章对我来说太难了!!!!!公式推导可以参考link.《机器学习实战》参考 link.理解要做什么**Maximal margin classiferSupport Vector Classifier二者局限6.1 间隔与支持向量6.2对偶问题6.3核函数6.4软间隔与正则化6.5支持向量回归6.6核方法...原创 2020-11-17 15:03:15 · 9560 阅读 · 0 评论 -
《机器学习》周志华--第5章神经网络。 笔记+习题
The definition of neural network:神经网络是由具有适应性的简单单元组成的广泛并行互联的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。神经网络的学习过程,就是根据训练数据来调整神经元之间的连接权(connection weight)以及每个功能神经元的阈值,神经网络经过学习后的东西,蕴藏在连接权与阈值中。5.1神经元模型其最初是模拟的生物神经元。我们假设每个神经元电位高于某个“阈值”时会处于兴奋。对于每个神经元,如图5.1所示,神经元接收到来自其他原创 2020-11-16 13:55:19 · 20273 阅读 · 0 评论 -
《机器学习》周志华 --第3章 线性模型 思维导图+笔记+习题
基本形式问题描述:给定由d个属性描述的示例x=(x1;x2;x3…xd),其中xi是x的第i个属性上的取值,线性模型试图学得一个通过属性的线性组合来进行预测函数,函数形式:f(x) = w1x1+w2x2+…wdxd+b,向量形式:例:西瓜问题中学的“f好瓜(x)=0.2x色泽+0.5x根蒂+0.3*x敲声+1”,则意味着可通过综合考虑色泽、根蒂和敲声来判断瓜好不好,由式子可以看出,其中根蒂最要紧,而敲声比色泽更重要。非线性模型可以在线性模型的基础上通过引入层级结构或高维映射而得。线性回归原创 2020-11-14 19:48:58 · 3673 阅读 · 0 评论 -
《机器学习》周志华--第2章 模型评估与选择 读书笔记+习题
第2章 模型评估与选择2.1 经验误差与过拟合2.2 模型评估2.1 经验误差与过拟合 学习器在训练集上的误差称为“训练误差”(training error)或 “经验误差”(empirical error) 在新样本上的误差称为“泛化误差”(generalizationerror) 过拟合:最常见的情况是学习能力过于强大,把学习样本不太一般的特性都学习到了。过拟合无法彻底避免,只能“缓解”或者说减少风险。 欠拟合:这是指对训练样本的一般性质...原创 2020-11-03 20:31:36 · 4974 阅读 · 1 评论 -
《机器学习》周志华--第一章绪论思维导图
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar原创 2020-10-26 19:34:41 · 1554 阅读 · 0 评论 -
《机器学习》周志华--第4章读书笔记+习题答案
第四章-决策树习题答案习题答案1.试证明对于不含冲突数据(即特征向量完全相同但标记不同)的训练集,必存在与训练集一致(即训练误差为0)的决策树。答:说法一:不含冲突数据;决策树是按照特征来进行划分->可以得到每个叶节点中的样本的所有特征及标记完全相同的决策树->与训练集一致。说法2:因为决策树是通过属性来划分,相同属性的样本最终肯定会进入相同的叶节点。- -个叶节点只有一个分类,如果样本属性相同而分类不同,必然产生训练误差。反之,决策树只会在当前样本集合是同一类或者所有属性相同时才原创 2020-11-15 14:53:22 · 4336 阅读 · 7 评论