关于SVD
SVD (Sigular Value Decomposition)奇异值分解,主要用于降维、压缩、隐性语义以及推荐系统上。要了解奇异值分解,首先要了解特征值分解,通过求解一个矩阵的特征值,我们可以把一个矩阵通过映射、拉伸或者压缩投射到一个新的空间中,相对于原空间来讲,投射到的新空间的维度会增加(一般是从一个二维空间向高维空间转换)在高维空间中的维度我们就能提取到一个矩阵的主要特征。奇异值也是这样,只不过特征值的特征提取只能针对与方阵而言,而奇异值并没有这个要求可以获得m*n矩阵的特征(m不等于n)。
特征分解
满足上式的lambda 为特征值,对应的向量x为特征向量。
A矩阵可以表示为:
k为A矩阵特征值的个数,U矩阵为正交矩阵。
A可以分解为特征向量加和的形式。最终Ax则演变为
<