Machine Learning
文章平均质量分 76
JackyWorks
关注CV、Learning、算法、网络等。
展开
-
Deep Learning(深度学习)学习笔记整理
目录:一、概述二、背景三、人脑视觉机理四、关于特征4.1、特征表示的粒度4.2、初级(浅层)特征表示4.3、结构性特征表示4.4、需要有多少个特征?五、Deep Learning的基本思想六、浅层学习(Shallow Learning)和深度学习(Deep Learning)七、Deep learn转载 2013-12-31 19:31:59 · 2522 阅读 · 0 评论 -
对主成分分析(PCA)算法的理解2
转载自http://www.cnblogs.com/liu-jun/archive/2013/03/20/2970132.html 以前对PCA算法有过一段时间的研究,但没整理成文章,最近项目又打算用到PCA算法,故趁热打铁整理下PCA算法的知识。本文观点旨在抛砖引玉,不是权威,更不能尽信,只是本人的一点体会。主成分分析(PCA)是多元统计分析中用来分转载 2013-12-25 19:58:11 · 1125 阅读 · 0 评论 -
K-L变换
假设有如下矩阵:其中,m和n分别为波段数(或称变量数)和每幅图像中的像元数;矩阵中每一行矢量表示一个波段的图像。 对于一般的线性变换Y=TX,如果变换矩阵T是正交矩阵,并且它是由原始图像数据矩阵X的协方差矩阵S的特征向量所组成,则此式的变换称为K-L变换。 K-L变换的具体过程如下: 第一步,根据原始图像数据矩阵X,求出它的协方差矩阵S。X的协方差矩阵为:原创 2013-12-25 19:50:39 · 4562 阅读 · 0 评论 -
再谈协方差矩阵之主成分分析
自从上次谈了协方差矩阵之后,感觉写这种科普性文章还不错,那我就再谈一把协方差矩阵吧。上次那篇文章在理论层次介绍了下协方差矩阵,没准很多人觉得这东西用处不大,其实协方差矩阵在好多学科里都有很重要的作用,比如多维的正态分布,再比如今天我们今天的主角——主成分分析(Principal Component Analysis,简称PCA)。结合PCA相信能对协方差矩阵有个更深入的认识~PCA的缘转载 2013-12-25 19:54:46 · 1017 阅读 · 2 评论 -
降维(一)----说说主成分分析(PCA)的源头
主成分分析(PCA) 在很多教程中做了介绍,但是为何通过协方差矩阵的特征值分解能够得到数据的主成分?协方差矩阵和特征值为何如此神奇,我却一直没弄清。今天终于把整个过程整理出来,方便自己学习,也和大家交流。提出背景 以二维特征为例,两个特征之间可能存在线性关系的(例如这两个特征分别是运动的时速和秒速度),这样就造成了第二维信息是冗余的。PCA的目标转载 2013-12-25 19:52:58 · 995 阅读 · 0 评论 -
如何学习机器学习的一点心得
以下内容转自:http://blog.csdn.net/lcjpure/article/details/8069704结合自己的学习经历,总结一下如何学习机器学习。我自己的学习过程其实是非常混乱和痛苦的,一个人瞎搞现在也不知道入没入门。希望能对其他想自学机器学习而找不到方向的人有一点点帮助。一、可以读读一些科普性的,综述性的东西。南京大学周志华教授写的科普文章《机器学习和数转载 2013-12-25 19:55:51 · 575 阅读 · 0 评论 -
Python模块调用与执行
一、模块调用。复杂的程序都是多模块的,所谓的模块,在Python中就是一个py文件,不同的模块实现不同的功能。一个模块要调用其他模块里的东西,包括函数、变量等,需要“先导入模块”。这些模块都存放在同一目录下,才能在一个模块中导入并调用其他模块。导入方式有2种:1、 “import 模块(例如:import bo)”。使用方式是 bo.touch(),bo.xxx,…… 即引用的时候需要原创 2014-01-11 20:11:56 · 5740 阅读 · 0 评论