一、特征值分解(EVD)的局限性
在进行主成分分析(PCA)的时候我们用到了特征值分解(EVD)的方法,这个方法很重要和很高效,但是同时也存在局限性。
那就是特征值分解要求矩阵必须是 方阵 并且一定能够被 对角化 。
那么扩展到一般情况,对于任意形状的矩阵的情况怎么办呢?比如说图片、数据表格等等。
那么奇异值分解(SVD)就进入了我们的视野,它可以对任意形状的矩阵进行分解,适用范围更广。
二、特征值分解的几何意义
我们一开始是获得一组原始的M X N 的数据采样矩阵A,其中M代表特征的个数,N代表样本个数。
矩阵通过与自身的转置矩阵相乘,得到M阶的样本特征的协方差矩阵。
然后获取协方差矩阵的一组标准正交特征向量以及对应的特征值。
此时,我们对协方差矩阵进行特征值分解,将矩阵分解为这样的形式:
最终通过获取前面k个特征值对应的特征向量,依次构成数据压缩矩阵的各行,通过矩阵相乘进行投影达到数据压缩的目的。
我们可以看到,想要完成特征值分解,最终还是要回到这个式子上来。
三、入手奇异值分解——Av = σμ
如果不进协方差矩阵的获取,直接对原始的数据采样矩阵进行矩阵分解,进行降维操作,显然是不行的。
特征值分解有两个大前提,一是必须是方阵,二是必须能够满足对角化。
但是对于原始的m x n 矩阵可能连基本方阵的要求都达不到,根本无法进行特征值分解。
对于一个任意形状的m x n形状矩阵,我们有以下普遍意义的性质:
① 假设m>n,就有r≤n<m的不等关系
②在空间中一定有一组正交向量,在空间中一定有一组正交向量,
使之满足。
在此基础上可以将
进一步转换为以下形式:
在这个分解的式子下,我们发现基向量没有包含在内。
将其添加到矩阵右侧,得到完整的m阶方阵