机器学习
机器学习相关内容
羊肉蛋花汤
边学习,边分享!
展开
-
【西瓜书学习笔记】随机森林
随机森林标题标题原创 2020-07-13 16:29:57 · 609 阅读 · 0 评论 -
【白板推导系列&西瓜书学习笔记】SVM
硬间隔SVM模型定义(最大间隔分类器)SVM有三宝:间隔、对偶、核技巧 。其中核技巧/核函数是SVM之前就有的,可使SVM从普通特征空间映射到高维空间,实现一定的非线性分类。SVM分类:hard-margin SVM、soft-margin SVM、kenel SVM 下面先介绍hard-margin SVM。SVM最初用来进行二分类(+1、-1):超平面:wTx+b=0w^{T}x + b = 0wTx+b=0判别模型:f(w)=sign(wTx+b)f(w) = sign(w^{T}x +原创 2020-06-19 12:07:16 · 465 阅读 · 0 评论 -
【机器学习西瓜书学习笔记】基础内容
基础内容基本术语数据集(data set):所有记录的集合示例(instance)/ 样本(sample)/ 特征向量(feature vector):数据集中的一条记录(关于一个事件或对象的描述)属性(attribute)/ 特征(feature):反映事件或对象在某方面的表现或性质的事项属性值(attribute value):属性的取值属性空间(attribute space)/ 样本空间(sample space)/ 输入空间 :属性张成的空间学习(learning)/ 训练(原创 2020-05-28 18:56:39 · 277 阅读 · 0 评论 -
【机器学习】层次聚类-Agglomerative clustering
【机器学习】层次聚类-Agglomerative clusteringAgglomerative clustering从NNN个簇开始,每个簇最初只包含一个对象,然后在每个步骤中合并两个最相似的簇,直到形成一个包含所有数据的簇。合并过程可以用二叉树(binary tree) 表示,称为树状图(dendrogram)。初始簇位于叶节点(图的底部),每当两个簇合并时,我们就将它们联接到树中。分支的...原创 2020-03-25 17:19:18 · 6847 阅读 · 0 评论 -
【机器学习】k均值聚类算法
【机器学习】k均值聚类算法聚类问题不存在标签,是非监督学习问题。算法如下:通俗来说,先随机生成kkk个聚类中心KaTeX parse error: Undefined control sequence: \miu at position 1: \̲m̲i̲u̲_{i},然后a.固定聚类中心,把训练集的每个元素x(i)x^{(i)}x(i)分配给离得最近的聚类中心;b.固定簇,把聚类中心移动到...原创 2020-03-25 16:25:46 · 276 阅读 · 0 评论 -
【机器学习】VC维
【机器学习】VC维原创 2020-03-25 15:32:23 · 271 阅读 · 0 评论 -
【机器学习】模型选择
【机器学习】模型选择【机器学习】模型选择交叉验证特征选择【机器学习】模型选择交叉验证以线性回归为例,假设我们有一个训练集S,如果仅根据训练误差最小来选择模型,即如下步骤:在训练集S上训练所有备胎模型MiM_{i}Mi,得到一些假设hih_{i}hi;选择训练误差最小的假设。在这样的标准下,因为多项式阶数越高,对训练集中的数据拟合得就越好,所以最终得到的都是高阶多项式模型。然而根...原创 2020-03-24 17:39:07 · 201 阅读 · 0 评论 -
【机器学习】学习理论(learning theory)
自定义标题【机器学习】学习理论(learning theory)1.偏差\方差权衡2.预备知识3.H类有限的情况4.H类无限情况【机器学习】学习理论(learning theory)1.偏差\方差权衡假设的泛化误差是训练集中不一定出现的例子的期望误差。最左图和最右图的模型的泛化误差都很大,但两者的情况并不一样。如左图,用线性模型去拟合非线性关系,就会产生较大偏差而欠拟合;像右图一样,用五阶...原创 2020-03-19 21:45:06 · 900 阅读 · 0 评论 -
【机器学习】偏差-方差分解
文章目录【机器学习】偏差-方差分解【机器学习】偏差-方差分解这差不多是对课堂阅读材料的翻译,方便自己加深理解,也是督促自己好好学习。因为是自己翻译的,所以存在学术名词翻译不准确的情况,希望大家看见之后能够指出。下面是正文部分:在本章节之前对线性回归模型的讨论中,我们一直假设基函数的形式和数量是固定的。但正如第一章中提到的那样,当训练数据集规模有限而模型又比较复杂的时候,极大似然法或最小二乘法...原创 2020-03-17 21:06:54 · 998 阅读 · 0 评论