目录
通过SVD对数据的处理,我们可以使用小得多的数据集来表示原始数据集,这样做实际上是去除了噪声和冗余信息,以此达到了优化数据、提高结果的目的。
- 隐形语义索引:最早的SVD应用之一就是信息检索,我们称利用SVD的方法为隐性语义检索(LSI)或隐形语义分析(LSA)。
- 推荐系统:SVD的另一个应用就是推荐系统,较为先进的推荐系统先利用SVD从数据中构建一个主题空间,然后再在该空间下计算相似度,以此提高推荐的效果。
特征值与奇异值
特征值分解和奇异值分解在机器学习领域都是属于常用的方法,两者有着很紧密的关系。特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。
1)特征值
首先,要明确的是,一个矩阵其实就是一个线性变换。因为一个矩阵乘以一个向量后得到的向量,其实就相当于将这个向量进行了线性变换,举例如下:
矩阵M乘以一个向量(x,y)的结果是
由于矩阵M是对称的,所以矩阵M相当于一个对x、y轴的方向一个拉伸变换。每一个对角线上的元素将会对一个维度进行拉伸变换,当值>1时是拉长,当值<1时是缩短:
当矩阵M不对称时,矩阵M相当于平面上对一个轴进行的拉伸变换:
矩阵M描述的坐标轴变化如下:
在上图中