Machine Learning Basic
文章平均质量分 91
机器学习基础算法原理介绍
康康好老啊
God don't let me die but let me suffer, so I play with god.
展开
-
机器学习自学笔记——最好懂的支持向量机
文章目录文献参考基本概念支持向量支持向量机(SVM)最大间隔超平面软间隔与硬间隔SVM最优化问题求解思路支持向量机数学原理第一步:建立支持向量方程第二步:求出最大间隔LLL表达式第三步:求LLL约束条件,得出优化问题第四步:解出优化问题解的前四个条件第五步:得出优化问题解的第五个条件第六步:转化成SVM对偶问题第七步:优化方程第八步:得出算法步骤标题升维转换与核技巧软间隔文献参考· 百度知道:桂纶美基本概念支持向量概念:位于分类超平面附近的样本点,称为支持向量在数学中,点这个概念常常用向量原创 2023-03-15 10:42:10 · 300 阅读 · 0 评论 -
机器学习自学笔记——朴素贝叶斯与极大似然估计
朴素贝叶斯算法通俗理解,最大似然估计介绍。我们所处在的这个世界是充满概率的一个世界。甚至可以说,世界上所有事情的发生都是有一定概率的,并不存在绝对发生与绝对不发生。 比如,你同桌他高考考得分数比你高,他未来工作薪资比你高只是一个可能性事件,在大部分人的认知里,“他未来工作薪资比你高”这个是个大概率事件;但是在我的认知里,绝不是这么一回事。没准他去了他梦想中的天坑专业出来工作都找不到,而你去了一个就业前景好的专业,那么之前那个结论他就不成立。原创 2023-03-13 21:57:44 · 608 阅读 · 0 评论 -
机器学习自学笔记——聚类
每个类中的样本点都有某些相似的特征。而分裂聚类正好相反,先将所有样本分到一个类之中,再将样本中距离最远的分到两个新的类。在上面的聚类算法的步骤中,“进行聚类”这一步骤中出现了“相似度度量”,这也是聚类算法中最重要的点。比如像我用图书的例子进行类比时,在“进行聚类”这一步说得就十分不清楚,因为我没法找到一个合适的标准去衡量图书之间的相似程度。需要注意的是,这里的“距离”是广义距离,并不仅仅是我们通常理解的。定义两个类任意样本之间的距离的平均为两类之间的距离。定义两个类的样本中心之间的距离为两类之间的距离。原创 2023-03-13 21:35:32 · 1492 阅读 · 0 评论 -
机器学习自学笔记——感知机
感知机算法通俗理解,详细介绍。如上图,黄色的线可以将黄色三角形和红色圆形完全分开,不会有黄色三角形在红色圆形的区域,也不会有红色圆形在黄色三角形区域。 最直观的一种想法就是,让不同的类别对应其特殊的一个常数,比如类别1对应的是0,类别2对应的是1。我们或许可以直接想到,误分类点个数可以作为损失函数的标准:误分类点数目越少,分类越准确。在模型训练的过程中,仅仅有一个分类函数是远远不够的。从直观上理解,数据集可分的概念就是一个数据集可以通过一个超平面将不同的类别的数据样本点完全分开。原创 2023-03-13 21:20:17 · 542 阅读 · 0 评论 -
机器学习基础自学笔记——k邻近算法
关于k邻近算法的详细介绍十分简单的引入:点(小黑点)和每一个已分类点(各种颜色的圆)的距离,并进行排序,选出其中k个距离最近的圆,再进行投票。 KNN算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数,如下图所示。这个统计的过程就是一个投票的过程。或许你并没有觉得这种方法简化了计算,但事实上,对于一个巨大的数据集,如果能够少遍历一棵子树,将会带来巨大的简便,只不过,这种情况是有概率性出现的。原创 2023-03-13 20:57:56 · 467 阅读 · 0 评论 -
机器学习基础自学笔记——决策树(Decision Tree)
决策树基础知识:从信息熵决策熵到信息增益、信息增益率、基尼系数,到两种剪枝处理和随机森林,生动易懂配有自制插图原创 2022-06-25 19:25:16 · 647 阅读 · 0 评论