- 博客(15)
- 资源 (4)
- 收藏
- 关注
转载 特征向量的几何意义
长时间以来一直不了解矩阵的特征值和特征向量到底有何意义(估计很多兄弟有同样感受)。知道它的数学公式,但却找不出它的几何含义,教科书里没有真正地把这一概念从各种角度实例化地进行讲解,只是一天到晚地列公式玩理论——有个屁用啊。根据特征向量数学公式定义,矩阵乘以一个向量的结果仍是同维数的一个向量,因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,
2013-04-15 15:39:52
935
转载 局部图像特征描述概述
樊彬中国科学院自动化研究所 模式识别国家重点实验室 (CASIA NLPR) 局部图像特征描述是计算机视觉的一个基本研究问题,在寻找图像中的对应点以及物体特征描述中有着重要的作用。它是许多方法的基础,因此也是目前视觉研究中的一个热点,每年在视觉领域的顶级会议ICCV/CVPR/ECCV上都有高质量的特征描述论文发表。同时它也有着广泛的应用,举例来说,在利用多幅二维图像
2013-03-22 20:48:10
758
转载 一些有用的图像处理论文及代码
Research Codes CVPR 2012:[1] M. Yang, L. Zhang, D. Zhang and S. Wang, “RelaxedCollaborative Representation for Pattern Classification,” inCVPR 2012. (paper) (code will be available soo
2012-12-02 12:06:16
2615
2
转载 矩阵分解资料(全)
转自:http://www.cvchina.info/2011/09/05/matrix-factorization-jungle/貌似是美法混血的有心人士(此有心人士长期从事航天飞机研究。。汗。。)收集了市面上的矩阵分解的几乎所有算法和应用,由于源地址在某神秘物质之外,特转载过来,源地址Matrix Decompositions has a long history and
2012-12-02 11:06:32
1004
原创 关于采用matlab进行指定非线性方程拟合的问题
※1。优化工具箱的利用 a.线性拟合 函数名 描述 LSQLIN 有约束线性最小二乘优化 LSQNONNEG 非负约束线性最小二乘优化问题 当有约束问题存在的时候,应该采用上面的方法代替Polyfit与反斜线(\)。具体例子请参阅优化工具箱文档中的相应利用这两个函数的例子。
2012-11-29 22:15:09
4886
转载 How to fail a PhD
I read an interesting post today by Matt Might on “10 reasons PhD students fail”, and I thought it might be helpful to reflect on some of the barriers to PhD completion that I’ve seen. Mat
2012-11-28 18:07:48
1420
转载 LARS算法简介
最近临时抱佛脚,为了讨论班报告Group Regression方面的文章,研究了Efron等人于2004年发表在Annals of Statistics里一篇被讨论的文章LEAST ANGLE REGRESSION。这篇文章很长,有45页。加上后面一些模型方面大牛的讨论的文章,一共有93页。对于这种超长论文,我向来敬畏。后来因为要报告的文章里很多东西都看不懂,才回过头来研读这篇基石性的文章。
2012-11-26 10:53:48
4958
转载 Clustering (5): Hierarchical Clustering
Hierarchical Clustering 正如它字面上的意思那样,是层次化的聚类,得出来的结构是一棵树,如右图所示。在前面我们介绍过不少聚类方法,但是都是“平坦”型的聚类,然而他们还有一个更大的共同点,或者说是弱点,就是难以确定类别数。实际上,(在某次不太正式的电话面试里)我曾被问及过这个问题,就是聚类的时候如何确定类别数。 我能想到的方法都是比较 naive 或者比较不靠谱的
2012-11-22 15:01:40
520
转载 Clustering (番外篇): Vector Quantization
在接下去说其他的聚类算法之前,让我们先插进来说一说一个有点跑题的东西:Vector Quantization 。这项技术广泛地用在信号处理以及数据压缩等领域。事实上,在 JPEG 和 MPEG-4 等多媒体压缩格式里都有 VQ 这一步。 Vector Quantization 这个名字听起来有些玄乎,其实它本身并没有这么高深。大家都知道,模拟信号是连续的值,而计算机只能处理
2012-11-22 14:51:10
563
转载 Clustering (番外篇): Dimensionality Reduction
机器学习应用到各个领域里,会遇到许多不同类型的数据要处理:图像、文本、音频视频以及物理、生物、化学等实验还有其他工业、商业以及军事上得到的各种数据,如果要为每一种类型的数据都设计独立的算法,那显然是非常不现实的事,因此,机器学习算法通常会采用一些标准的数据格式,最常见的一种格式就是每一个数据对应欧几里德空间里的一个向量。 如果原始的数据格式不兼容,那么就需要首先进行转换,这个过程通
2012-11-22 14:49:35
750
转载 Clustering (番外篇): Expectation Maximization
Expectation Maximization (EM) 是一种以迭代的方式来解决一类特殊最大似然 (Maximum Likelihood) 问题的方法,这类问题通常是无法直接求得最优解,但是如果引入隐含变量,在已知隐含变量的值的情况下,就可以转化为简单的情况,直接求得最大似然解。 我们会看到,上一次说到的 Gaussian Mixture Model 的迭代求解方法可以算是 E
2012-11-22 14:45:04
405
转载 Clustering (4): Spectral Clustering
如果说 K-means 和GMM 这些聚类的方法是古代流行的算法的话,那么这次要讲的 Spectral Clustering 就可以算是现代流行的算法了,中文通常称为“谱聚类”。由于使用的矩阵的细微差别,谱聚类实际上可以说是一“类”算法。Spectral Clustering 和传统的聚类方法(例如 K-means)比起来有不少优点:和 K-medoids 类似,Spe
2012-11-22 14:41:46
323
转载 Clustering (3): Gaussian Mixture Model
这次我们来说一下另一个很流行的算法:Gaussian Mixture Model (GMM)。事实上,GMM 和 k-means 很像,不过 GMM 是学习出一些概率密度函数来(所以 GMM 除了用在 clustering 上之外,还经常被用于 density estimation ),简单地说,k-means 的结果是每个数据点被 assign 到其中某一个 cluster 了,而 GMM 则给
2012-11-22 14:37:59
412
转载 Clustering (2): k-medoids
我们了解了一个最基本的 clustering 办法 k-means ,这次要说的 k-medoids 算法,其实从名字上就可以看出来,和 k-means 肯定是非常相似的。事实也确实如此,k-medoids 可以算是 k-means 的一个变种。 k-medoids 和 k-means 不一样的地方在于中心点的选取,在 k-means 中,我们将中心点取为当前 cluster
2012-11-22 14:34:03
860
转载 Clustering (1): k-means
Clustering 中文翻译作“聚类”,简单地说就是把相似的东西分到一组,同 Classification (分类)不同,对于一个 classifier ,通常需要你告诉它“这个东西被分为某某类”这样一些例子,理想情况下,一个 classifier 会从它得到的训练集中进行“学习”,从而具备对未知数据进行分类的能力,这种提供训练数据的过程通常叫做supervised learning (
2012-11-22 14:29:09
717
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人