这名字还挺好听的,SVD。
奇异值分解,跟 把一个向量拆成一组正交向量之和是一回事。只不过这里的向量是矩阵。σ(拆出来的矩阵)就是坐标。数学里面,因式分解,泰勒展开,傅里叶变换,特征值分解,奇异值分解,通通是这个路数。
就是把当前数据表示成一组某种意义下特征相互独立(不能互相表达)的数据叠加的形式。
目的就是便于处理,或者舍弃次要信息(使得每个元素都能最大程度表达信息)
如果方阵对某个向量只产生伸缩,而不产生旋转效果,那么这个向量就称为矩阵的特征向量,伸缩的比例就是对应的特征值。所以说,其实特征向量才是本体,其实说这个矩阵就是这个向量的特征矩阵,伸缩的比例就是特征值。这样的特征矩阵是有多少个?
求出特征值和特征向量有什么好处呢? 就是我们可以将矩阵A特征分解。怎么回事呢?就是可逆的重要公式,由特征向量组成的矩阵夹着以特征值为对角线的对角阵。若特征向量矩阵正交化了,也就是说W为酉矩阵。对,酉矩阵就是正交矩阵。
那么如果A不是方阵,即行和列不相同时,我们还可以对矩阵进行分解吗?答案是可以,此时我们的SVD登场了。SVD也是对矩阵进行分解,但是和特征分解不同,SVD并不要求要分解的矩阵为方阵。假设我们的矩阵A是一个m×n的矩阵,那么我们定义矩阵A的SVD为: