机器学习
文章平均质量分 65
剖析机器学习的原理过程、实战项目和代码
lonelyrains
这个作者很懒,什么都没留下…
展开
-
Android-中国象棋-实时识别-实时AI
中国象棋人机界面https://github.com/windswhisper/cocos2dhttps://github.com/ccxuy/ChineseChessAndroidhttps://github.com/doctording/chess/tree/master/ChinessChess中国象棋场景识别1、实时读取摄像头,显示图片2、将图片数据传给ndk...原创 2016-09-18 23:07:57 · 7515 阅读 · 4 评论 -
Ubuntu14.04-x64+Caffe
caffe Ubuntu 编译问题及解决方法原创 2016-03-18 09:18:56 · 5321 阅读 · 0 评论 -
Kmeans、Kmeans++和KNN算法比较
K-Means介绍 K-means算法是聚类分析中使用最广泛的算法之一。它把n个对象根据他们的属性分为k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。其聚类过程可以用下图表示: 如图所示,数据样本用圆点表示,每个簇的中心点用叉叉表示。(a)刚开始时是原始数据,杂乱无章,没有label,看起来都一样转载 2016-03-17 18:51:51 · 1726 阅读 · 0 评论 -
朴素贝叶斯分类
朴素贝叶斯分类器转载 2016-03-17 16:56:08 · 1304 阅读 · 0 评论 -
cart决策树
分类与回归树(CART——Classification And Regression Tree) 在已知各种情况的概率,用直观图表求最大期望的方法。转载 2016-03-17 15:53:44 · 1576 阅读 · 0 评论 -
HMM隐Markov模型的原理及应用建模
GMM-HMM隐Markov模型隐形马尔科夫模型原创 2016-03-15 15:51:59 · 4381 阅读 · 1 评论 -
机器学习(十八)异常检测
机器学习(十八)异常检测问题提出实际生产过程中,出产投入使用之前,经常会评价某些参数是否有异常,然后再判断是否要重新检测。评价并不是简单的根据特定参数的阈值来的,而是根据宏观上产出群体的所有参数分布得出的。 比如生成飞机引擎,震动和热量参数,对所有出产的引擎进行测试,得到如下分布: 为了评价这种差异,定性分析如下: 高斯分布从上面的直观感受、定性分析可知越接近中心区域的越不可能是异常。原创 2015-11-16 11:45:43 · 14997 阅读 · 1 评论 -
机器学习(十七)主成分分析(Principle Component Analysis)
主成分分析想法来源:数据压缩、可视化PCA:主成分分析。目的就是把有意义的样本点数据适当地降维表达。如果是降到3维或者2维就可以可视化表达了。这其中,针对常用的样本点来说,肯定是有数据损失的。问题是如何将损失降到比较小。3维到2维的降维表达如下图: PCA的算法1、属性缩放归一化,计算样本向量集的协方差矩阵 2、计算协方差矩阵的特征向量,将明显差异的维度部分挑出来,不明显的部分近似认为是常数原创 2015-11-11 18:25:07 · 7031 阅读 · 0 评论 -
机器学习(十六)无监督学习、聚类和KMeans聚类
无监督学习、聚类聚类是在样本没有标注的情况下,对样本进行特征提取并分类,属于无监督学习的内容。有监督学习和无监督学习的区别就是需要分析处理的数据样本是否事先已经标注。如下图,左边是有监督,右边是无监督: 应用场景也有所不同。无监督学习主要用于特征提取分类,其应用场景举例:将市场买家特征识别、分类,然后做肖像(profile);社交网络中哪些人是一个圈子的人;组织计算集群;天文数据分原创 2015-11-02 23:00:02 · 9558 阅读 · 0 评论 -
机器学习(十五)有监督学习总结
有监督学习总结原创 2015-11-01 20:09:21 · 1358 阅读 · 0 评论 -
机器学习(十四)SVM总结
SVM直观理解总结原创 2015-11-01 19:21:52 · 1027 阅读 · 0 评论 -
机器学习(十三)学习SVM支持向量机的直观感受
如果说傅里叶函数是三菱镜,那基于核函数的SVM支持向量机,从直观上理解,就是m(样本数)个基于K(分类的类型数)个类型的结果分类的样本核不断匀速膨胀的肥皂泡(实际中用的不是球形肥皂泡,而是高斯核函数,有点像从中心位置提起平铺的一层薄膜),直到把高维空间不断划分开为止。很容易联想到基于样本核的势能分布,或者电场/引力场。原创 2015-10-24 23:12:06 · 1163 阅读 · 1 评论 -
机器学习(十二)学习SVM支持向量机过程中的引申
SVM 支持向量机 引申原创 2015-10-24 16:01:37 · 853 阅读 · 0 评论 -
机器学习(十一)机器学习系统设计的细节问题
1、初期:如何提炼特征?头脑风暴2、前期:1)首先实现一种简单算法,能快速使用交叉检验测试,然后画学习曲线,再决定是否要更多数据、特征变量等,避免前期过度优化。2)将交叉检验分错的部分人工分析一下,是否有什么系统性的规律,启发新的特征变量。3)基于交叉检验数据集检验的定量误差分析。通过增减新特征变量,判断误差是降低还是升高。3、正样本或者负样本所占比例非常少时,比如得癌症的人数原创 2015-10-23 22:29:27 · 1472 阅读 · 0 评论 -
机器学习(十)机器学习模型的评价
模型不理想时,怎么调整模型?是要更多样本?是要更多特征?正规化的λ应该更大或者更小?怎么评价模型是否理想?欠拟合或者过拟合?将数据分为训练集70%、测试集30%。通过训练集得到可能的Θ矩阵,然后根据测试集的结果选择误差最小的那种模型。测试集的效果评价可能是虚假的过高。所以分成三类:训练集 Train 60%验证集 CV cross validation 20原创 2015-10-22 08:29:20 · 4597 阅读 · 0 评论 -
机器学习(九)反向传播算法
机器学习(九)反向传播算法原创 2015-10-21 13:34:59 · 5413 阅读 · 0 评论 -
机器学习(八)前馈神经网络
前馈神经网络用于解决逻辑回归来处理太复杂的情况。提高灵活性的同时,又不太会有过拟合的情况。神经网络的结点内部是Sigmoid函数,外部有输入、Theta加权值,最后一级网络层如果只有一个输出结点,最后两级网络就构成一个逻辑回归分类器。首先需要理解将逻辑回归分类用作确定多类型集的分类。例如手写体数字识别有10种数字。即是对最终结点等于K种结果中的一种的概率做一个估计,原创 2015-10-19 13:07:54 · 13291 阅读 · 0 评论 -
机器学习(七)线性回归、正规方程、逻辑回归的正规化
问题:过分拟合解决方法:为代价函数引入新的参数项1)线性回归 代价函数 梯度2)正规方程 方程3)逻辑回归 代价函数 梯度原创 2015-10-19 10:14:53 · 3186 阅读 · 0 评论 -
机器学习(六)梯度下降的优化算法和matlab/octave中的应用
为了分类,需要计算代价函数、代价函数关于参数的偏导数原创 2015-10-16 19:05:59 · 3570 阅读 · 0 评论 -
机器学习(五)逻辑回归分类
在大多数情况下,线性回归分类并不能较好的判定,如图其中紫红色的线表示在未出现最右侧样本点的情况下的预测,而当有最右侧点时,线性回归预测变为蓝色线。这时再看中间的一些点,实际结果都与预测的是相反的。鉴于此,较好的方式是说明预测结果的可能性概率。这个时候用到的是逻辑回归分类。在结果与预测值相反时,无限增大代价函数值;而结果与预测值相同时,代价函数为0。因此,逻辑回归分类利用Sigmoi原创 2015-10-10 17:52:37 · 1534 阅读 · 0 评论 -
机器学习(四)正规方程求解线性回归问题、正规方法与梯度法的优劣
除了梯度向量法,求解最小J(θ)也是可行的,但是偏微分方程太过复杂。经数学证明,运用线性代数的公式,直接求解代价函数J(θ)最小时,特征向量θ的取值。 公式为:正规方程方法与梯度向下方法的优劣1、优点:1)前者不需要迭代,不存在无法收敛的问题2)前者不需要选取初始α2、缺点:1)特征向量的维度n,正规方法的算法复杂度大约为O(n^3)。当原创 2015-10-07 15:19:04 · 4828 阅读 · 0 评论 -
机器学习(三)线性回归和梯度下降法
回顾机器学习系列第一篇监督学习,回归属于监督学习。而线性回归是回归中的一种简化。可以用最小二乘法形式的代价函数(当然也有其他形式),求最小值来做。单变量的时候,代价函数随着自变量的变化而变化,变化轨迹是代价函数-参数的二维坐标的一个下凸的抛物线;双变量时,是代价函数-参数1-参数2的弓形曲面。人工找代价函数的最值点不现实,所以提出了梯度下降法(gradient decent),其实就是原创 2015-10-06 18:29:02 · 1907 阅读 · 0 评论 -
机器学习(二)无监督学习
无监督学习在于从数据集中找到特征并分类聚类算法 从一堆数据中找到特征并分类鸡尾酒会问题算法 分类不同的声音,分别输出octave/matlab 原型建模,简单的代码解决问题之后,再移植到C++/Java链接一些复杂的库来产品化原创 2015-10-06 11:03:24 · 1605 阅读 · 0 评论 -
机器学习(一)监督学习
机器学习的作用仍然是在某种输入情况下给出输出。监督学习分为两种:1、回归问题2、分类问题如果是只有少数几个离散输出情况,输出是各种类别,就是分类问题;如果是需要拟合,找某种输入对应的输出可能是连续情况下的哪个值,就是回归问题。当需要考察的特征很多事,需要用到支持向量机算法来完美求解无穷多参数特征时的输出。原创 2015-10-06 10:37:44 · 1418 阅读 · 0 评论