![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
2014乘风破浪2014
技术,没有止境
展开
-
例说Hausdorff距离
该博客说的很清楚,重点理解前面部分,该函数应用很广泛,例如手写识别等,好好体会里面的思想。http://www.cnblogs.com/xlz10/p/3929119.html转载 2016-08-06 19:02:21 · 1202 阅读 · 0 评论 -
机器学习(三):概率学习——朴素贝叶斯分类
理解:基于贝叶斯方法的分类器是利用训练数据并根据特征的取值来计算每个类别被观察到的概率。当分类器被应用于无标签数据时,分类器就会根据观测到的概率来预测新的特征最可能属于哪一类。 重要概念:事件:可能的结果。晴天或者雨天试验:事件发生一次的机会(概率)概率:事件发生的实验次数除以试验的总次数。联合概率:两个事件同时发生的概率基于贝叶斯定理的条件概率:事件A在另外一个事件B已经发生条件下的发原创 2017-04-27 21:45:00 · 914 阅读 · 0 评论 -
机器学习(二):懒惰学习——近邻分量
kNN算法用于分类的近邻方法是通过knn算法实现的。 理解:对于测试数据集中的每一个记录,knn确定训练数据集中与该记录相似度“最近”的k条记录,其中k是一个预先指定的整数,未标记的测试实例被分配到k个近邻中占比最大的那个类中。计算距离 定义近邻需要一个距离函数或者一个用来衡量两个实例之间相似性的公式。knn算法一般使用欧式距离:即用尺子连接两个实例(类似于二维平面中两个点之间的距离)选择原创 2017-04-27 19:27:04 · 4909 阅读 · 0 评论 -
机器学习(一):简介
什么是机器学习?一个不是很正式的回答是:不直接通过编程让计算机解决问题,而是试着让计算机自己找到解决方式。(一)学习过程可以分为:数据输入,抽象化,一般化。抽象化:由学习任务和所分析的数据类型来决定学习的模型,用这个模型来拟合数据集(称之为训练),然后数据就转换为一个汇总了原始信息的抽象形式。 一般化:把抽象知识转化为可以应用的行动。(二) 机器学习应用于数据的步骤1.收集数据 2.探索数据和准原创 2017-04-26 18:05:38 · 858 阅读 · 0 评论 -
机器学习(六):黑箱方法——神经网络和支持向量机
理解人工神经网络:(ANN)对一组输入信号和一组输出信号之间的关系进行建模,使用的模型来源于人类大脑。 激活函数:这个过程涉及对总的输入信号求和,和确定是否能满足激活阈值。如果满足,神经元传递信号,否则,不操作。又称为阈值激活函数。激活函数有很多,自变量是输入和,因变量是输出值,他们之间的差异主要是输出信号的范围不同。要认识到,许多激活函数,影响输出信号的输入范围值是相对较窄的。过高或者过低的输入原创 2017-04-30 12:25:16 · 4824 阅读 · 0 评论 -
机器学习(八):寻找数据的分组——k均值聚类
理解聚类聚类是一种无监督的机器学习任务,可以将数据自动分成类,或具有类类似的分组。我们可能都不知道我们在寻找什么,聚类是用来知识发现而不是预测。简单地说,就是对无标签的数据进行分类k均值聚类涉及将n个案例分配到k个类中的一个,其中k是一个提前定义好的数,目标是最小化每个类内部的差异,最大化类之间的差异。该算法使用了一个可以找到局部最优解的启发式过程。两个阶段:将案例分配到初始的k个类中,其次,根据落原创 2017-04-30 17:30:25 · 2541 阅读 · 0 评论 -
机器学习(七)探寻模式——基于关联规则的购物篮分析
理解分析结果是一组指定商品之间关系模式的关联规则。例如{花生酱,果冻}–>面包。购买前两种就极有可能购买面包。Apriori算法现实中,许多潜在的商品组合极少,不是一个一个地评估集合的每一个元素。例如:{机油,口红}这两个物品的组合就可能很少。这样就限制了搜索的范围,该算法采用一个简单的先验信念作为准则来减少关联规则的搜索空间:一个频繁项集(集合)的所有子集也是频繁的。比如,如果{机油,口红}是频繁原创 2017-04-30 16:25:42 · 3881 阅读 · 0 评论 -
机器学习(五):回归方法——预测数值型数据
理解回归关注的是一个唯一的因变量(预测变量)和一个或多个数值型自变量之间的关系。首先假设因变量和自变量之间遵循线性关系。 单一线性回归:只有一个单一的自变量 多元回归:多个自变量概念普通最小二乘估计:(最小二乘法)不多叙述 相关系数:范围在-1到1之间,越靠两端证明越相关,接近0表示不存在线性关系。一般0.1-0.3为弱相关,0.3-0.5中相关,大于0.5为强相关。多元回归第二个公式里面的自原创 2017-04-29 17:08:17 · 2416 阅读 · 0 评论 -
机器学习(四):分而治之(下)——规则学习
理解:规则分类使用的是独立而治之的探索法。通过确定训练数据中覆盖一个子案例的规则,然后从剩余的数据中分离出该区域。随着案例的增加,更多的数据子集会被分离,直到整个数据集都被覆盖,不再有案例残留。(可以理解为多个嵌套的if-else)。独立而治之算法又称为覆盖算法,规则成为覆盖规则。 比如说,你在一群不同种类的动物中需要分开哺乳动物和非哺乳动物,你第一个规则可能是陆地动物,然后你发现青蛙也在这一类中原创 2017-04-29 10:54:45 · 1762 阅读 · 0 评论 -
机器学习(四):分而治之(上)——决策树分类
简单地说,一个困难的决定可以简化为一系列小的越来越具体的决定。决策树理解:从代表数据集的根节点开始,该算法选择最能预测目标类的特征,这些案例将被划分到这一特征的不同值的组中,这一决定形成了第一组树枝。继续分而治之其他节点,每次选择最佳的候选特征,直到达到停止标准。如果一个节点停止,可能具有以下情况:节点上几乎所有的案例属于同一类没有剩余的特征来分辨案例之间的区别决策树已经到达预先定义的大小限制原创 2017-04-28 17:35:42 · 1588 阅读 · 0 评论 -
Matlab中Lut原理及对线段端点的检测
转自:http://blog.csdn.net/zhang11wu4/article/details/9140571个人认为,内部机制只是帮助理解,重点是要知道通过这样的方式,能达到怎样的效果,lut原理不仅仅可以检测线段端点,还可以检测线段之间的交点,这一原理是根据名为Identification of Fork Points on the Skeletons of Handwritten Chi转载 2016-08-09 21:31:29 · 2485 阅读 · 0 评论 -
Ubuntu安装Tensorflow
由于我的ubuntu是最新版的(ubuntu-16.04-desktop-amd64),里面自带的python是2.7.11。因此满足要求。由于tensorflow有三种安装方式,这里采用的是pip安装方式。下面开始安装tensorflow: 本篇文章来源于 Linux公社网站(www.linuxidc.com) 原文链接:http://www.linuxidc.com/Linux/2016-0原创 2017-10-19 10:32:17 · 340 阅读 · 0 评论