low rank representation 低秩表达

转载 2014年12月30日 11:44:47

http://blog.csdn.net/silence1214/article/details/8802242

去年已经开始在接触低秩表达,最近学习到一些paper,发现对这个还是不是很理解,今天从这里开始记录一下对低秩表达的学习。

目前低秩表达主要用在子空间分割上,也就是给定一组数据,这组数据是从某几个子空间上来的,通过低秩表达可以达到对来自这几个子空间的数据进行聚类,可以找到哪些数据时来自具体的哪个子空间。


首先子空间分割有很多种方法比如基于概率模型的(由于高斯分布最能代表一个子空间,所以一般基于这种方法的数据都符合高斯分布)

其次是基于分解的方法,一般是基于现有分解方法的修改,并且是基于多次迭代完成的

接着是比较火的基于稀疏的子空间分割(sparse subspace clustering),通过对表达系数矩阵进行一个稀疏的约束完成(通过对每一列的系数约束完成整个稀疏矩阵的获取)。


上面三个分解方法的缺点就是:对noise和outliers很敏感,一旦有噪声那么分解方法就不精确。

所以提出来了low rank representation的方法,因为low rank是对系数矩阵整体的约束,所以llr的方法是从全局的观点出发来表达的,其次由于噪声会提高数据的rank,故在low rank的约束下自然就去掉了噪声,所以该方法对噪声的鲁棒性很强。

相关文章推荐

笔记:Semi-Supervised Low-Rank Representation for Image Classification

本文是这篇 SIViP 期刊论文的笔记,主要是对文中的理论方法进行展开详解。本人学术水平有限,文中如有错误之处,敬请指正。

Low-Rank Representation(LRR)

笔记:Structure-Constrained Low-Rank and Partial Sparse Representation with Sample Selection for image

本文是这篇 Pattern Recognition 期刊论文的笔记,主要是对文中的理论方法进行展开详解。本人学术水平有限,文中如有错误之处,敬请指正。

低秩矩阵在机器视觉中的理解--Low-Rank representations

阅读论文Learning Structured Low-rank Representations for Image Classification 文章主要有两个创新点 1.在普通的低秩表示外另外...

低秩矩阵在机器视觉中的理解--Low-Rank representations

阅读论文Learning Structured Low-rank Representations for Image Classification 1.
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)