特征值分解与PCA
一个矩阵的特征值分解可以将矩阵分解为更加规则和简单的子矩阵
A=PTΣP ,而且这些子矩阵从不同侧面描述了原矩阵的主要特征,如P(特征向量做列向量的矩阵)描述了新投影方向,在这个方向上A表示的线性变换速度最快,而 Σ 描述了对应方向上的伸缩速度。
但是不是所有矩阵都可以轻易地如此分解,当且仅当A有满秩的线性无关的特征向量,才可以做这样的分解。
不过,有一种特殊的矩阵——实对称矩阵,一定存在与维数相同个不等的特征值,也即存在与维数相同个线性无关且正交的特征向量。
PCA也就是利用了这一结论,因为PCA希望提取出主成分(新的正交基),在主成分上投影后原矩阵列向量的方差最大(保存信息最多),这恰好和A的协方差矩阵联系了起来,经过推导发现协方差矩阵经过特征值分解后得到的特征向量就是我们需要的使方差最大化的一组正交基。
PCA方法提出出主成分后,矩阵的两两比较,可以用它们的主成分来比较,这样可以加速某种识别或比对,如人脸检测和人脸识别;另外一种应用场景就是降维可视化,因为高维空间要将数据做成直观的可视化图形并不容易,降维(特别是2维)后就很容易在平面上展示,而且特征信息并不会丢失,如点之间的聚合和分散程度。
奇异值分解 简介
特征值分解是一个提取矩阵特征很不错的方法,但是它只是对方阵而言的,在现实的世界中,我们看到的大部分矩阵都不是方阵,比如说有N个学生,每个学生有M科成绩,这样形成的一个 N∗M 的矩阵就不可能是方阵,我们怎样才能描述这样普通的矩阵呢的重要特征呢?
奇异值分解可以用来干这个事情,奇异值分解是一个能适用于任意的矩阵的一种分解的方法:
奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。
所以说,奇异值分解和特征值分解的目标都是一样的——将矩阵分解为更加规则和简单的子矩阵,而且这些子矩阵描述了原矩阵的核心信息。
下图可以很形象的看出上面SVD的定义:
奇异值分解计算步骤
其中U是m×m阶酉矩阵,其向量称为左奇异向量;Σ是m×n阶非负实数对角矩阵,对角线上的值称为奇异值;而 V