![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 79
jyt1129
这个作者很懒,什么都没留下…
展开
-
《机器学习实战》——k-近邻算法实现
首先介绍一下k-近邻算法的伪代码:计算已知类别数据集中的点与当前点之间的距离按照距离递增次序排序选取与当前点距离最小的K个点确定K个点所在的类别出现的频率返回前K个点出现频率最高的类别作为当前点的预测分类结果def classify0(inX, dataSet, labels, k): dataSetSize = dataSet.shape[0] #计算矩阵的行数原创 2017-03-16 13:39:53 · 361 阅读 · 0 评论 -
《机器学习实战》——决策树
在这篇博文中,总结了决策树的基本用法和用python写的测试demo1. 决策树的定义分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点(Node)和有向边(directed edge)组成。结点有两种类型:内部结点(internal node)和叶节点(leaf node)。内部结点表示一个特征或属性,叶结点表示一个类。2. 决策树测试过程用决策树分类,从根结点开始,原创 2017-03-17 16:24:05 · 427 阅读 · 0 评论 -
《机器学习实战》——朴素贝叶斯分类
朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定输入x,利用贝叶斯定理计算后验概率最大的输出y。朴素贝叶斯法在数据较少的情况下任然有效,但对输入数据的准备方式较为敏感。原创 2017-03-20 14:04:48 · 760 阅读 · 0 评论 -
机器学习——SVM算法原理(1)
(1)线性可分支持向量机与硬间隔最大化考虑一个二分类问题,假设输入空间与特征空间为两个不同的空间,输入空间为欧式空间或离散集合,特征空间为欧式空间或希伯特空间。线性支持向量机假设这两个空间的元素一一对应,并将输入空间的输入映射为特征空间中的特征向量,而非线性支持向量机利用一个从输入空间到特征空间的非线性映射将输入映射为特征向量。假设给定一个特征空间上的训练数据集T={(x1,y1),(原创 2017-03-29 20:02:26 · 3091 阅读 · 0 评论 -
机器学习——SVM算法原理(2)
(2)线性支持向量机与软间隔最大化1.线性支持向量机针对线性可分的数据,我们可以采用线性可分支持向量机进行划分,模型如下:(1)但是对于线性不可分的数据集,通常情况下,训练数据中存在一些特异点,当去除特异点后,剩下的样本点组成的集合是线性可分的。那么针对线性不可分数据集,意味着默写样本点(特异点)不满足函数间隔大于等于1的约束条件。为解决这个问题,我们对这些特异点引入了一个原创 2017-03-30 11:28:03 · 645 阅读 · 0 评论 -
《机器学习实战》——logistic回归
一、逻辑斯蒂分布对于一个二分类问题,即我们需要一个函数,使得该函数接受所有输入,然后输出0或者1。显然单位阶越函数能满足这个要求,然而该函数在跳跃点从0瞬间跳跃到1的过程很难处理,所以我们用另一个函数,它具有上述的输出0/1的性质,在数学上称为Sigmoid函数。Sigmoid函数的计算公式如下:在逻辑斯蒂回归算法中,我们用的是属于Sigmodi函数中的逻辑斯蒂函数,逻辑斯蒂分布的原创 2017-03-23 21:55:47 · 425 阅读 · 0 评论