注意SVD的降维实际上是降低矩阵的秩,而并未实际上降低矩阵的大小。
注:摘自清风老师的数学建模课件
而且,看上去矩阵经过SVD变小了,但如果把三个矩阵乘回去却没有改变矩阵的大小。
注:摘自清风老师的数学建模课件
在SVD降维中,保留的信息权重实际上就是信息对应奇异值所占总奇异值的比例,也叫特征比例。
如图,我们只保留对应矩阵奇异值为8.45,4.94的部分,实际上也就是保留了矩阵92.34%的信息量。
因此SVD自然而然地可以用于各种需要对数据进行减重压缩处理的场合。
比如:图像的压缩处理,也就是在损失一定清晰度的成本下,对图片进行主要特征的提取,换来了更小的内存占用。
如图所示,图片经过处理后,清晰度随着特征比例保留程度的减少而减少,但相应的,奇异值数目也减少了,图片占用的内存也减少了。
没有接触过相应领域的朋友们可能会问:SVD跟图片有个毛关系啊?
别急,下次再讲。