奇异值分解算法 java_机器学习(七) 奇异值分解-SVD

本文介绍了奇异值分解(SVD)在机器学习中的降维作用,详细阐述了SVD的原理,并通过Java使用Apache Spark的MLlib库展示了如何实现SVD。通过计算和保留前几个奇异值,可以达到降低数据维度和存储空间的效果,常用于信息检索和推荐系统等领域。
摘要由CSDN通过智能技术生成

降维(Dimensionality Reduction) 是机器学习中的一种重要的特征处理手段,它可以减少计算过程中考虑到的随机变量(即特征)的个数,其被广泛应用于各种机器学习问题中,用于消除噪声、对抗数据稀疏问题。它在尽可能维持原始数据的内在结构的前提下,得到一组描述原数据的,低维度的隐式特征(或称主要特征)。简单来说,在高维数据中筛选出对我们有用的变量,减小计算复杂度提高模型训练效率和准确率,这就是我们要说的降维。

MLlib机器学习库提供了两个常用的降维方法:奇异值分解(Singular Value Decomposition,SVD) 和 主成分分析(Principal Component Analysis,PCA),下面我们将通过实例介绍其具体的使用方法。

一、公式和原理

奇异值分解(SVD)将矩阵A分解为三个矩阵:U,Σ和V,如下公式

其中

左奇异矩阵 :,U 为一个标准正交矩阵,也叫实对称矩阵,怎么理解这个概念呢?就是说矩阵A的转置等于其本身,或者说矩阵U的维度为m×m ,用符号表示为

,我们称U 为左奇异矩阵。

奇异值 : Σ 是一个对角矩阵,仅在主对角线上有值,其它元素均为0,用符合表示为

,我们称Σ为奇异值。

右奇异矩阵 : V也是一个正交矩阵,这会儿知道是啥意思了吧,和U的解释一样,用符号表示为

,我们称 V 为 右奇异矩阵。

奇异值分解 : 就是想要找到一个比较小的值k,保留前k个奇异向量和奇异值,其中 U 的维度从 m×m 变成了 m×k , V 的维度从 n×n 变成了 m×k ,Σ 的维度从 m×n 变成了 k×k 的方阵,从而达到降维效果。

二、代码实现

Mllib内置的奇异值分解功能位于org.apache.spark.mllib.linalg包下的RowMatrix和IndexedRowMatrix类中,所以,我们必须先通过已有数据创建出相应矩阵类型的对象,然后调用该类的成员方法来进行SVD分解,这里以RowMatrix为例:

import org.apache.spark.SparkConf;

import org.apache.spark.api.java.JavaRDD;

import org.apache.spark.api.java.JavaSparkContext;

import org.apache.spark.mllib.linalg.Matrix;

import org.apache.spark.mllib.linalg.SingularValueDecomposition;

import org.apache.spark.mllib.linalg.Vector;

import org.apache.spark.mllib.linalg.Vectors;

import org.apache.spark.mllib.linalg.distributed.RowMatrix;

3.1、准备一个矩阵

准备好一个矩阵,这里我们采用一个简单的文件a.mat来存储一个尺寸为(4,9)的矩阵,其内容如下:

1 2 3 4 5 6 7 8 9

5 6 7 8 9 0 8 6 7

9 0 8 7 1 4 3 2 1

6 4 2 1 3 4 2 1 5

3.2、computeSVD方法计算分解结果

随后,将该文本文件读入成RDD[Vector],并转换成RowMatrix,即可调用RowMatrix自带的computeSVD方法计算分解结果,这一结果保存在类型为SingularValueDecomposition的svd对象中

SparkConf conf = new SparkConf().setAppName("SVD").setMaster("local");

JavaSparkContext sc = new JavaSparkContext(conf);

JavaRDD source = sc.textFile("data/mllib/a.data");

JavaRDD data = source.map(line->{

String[] parts = line.split(" ");

return Vectors.dense(Double.parseDouble(parts[0]),

Double.parseDouble(parts[1]),

Double.parseDouble(parts[2]));

});

RowMatrix rm = new RowMatrix(data.rdd());

3.3、保留前3个奇异值

SingularValueDecomposition svd = rm.computeSVD(3,false,1.0E-9d);

3.4、得到V、s、U成员

通过访问svd对象的V、s、U成员分别拿到进行SVD分解后的右奇异矩阵、奇异值向量和左奇异矩阵:

System.out.println("s=================");

System.out.println(svd.s());

System.out.println("s=================");

System.out.println("V=================");

System.out.println(svd.V());

System.out.println("V=================");

System.out.println("U=================");

System.out.println(svd.U());

System.out.println("U=================");

控制台输出结果:

s========================================================

[28.741265581939565,10.847941223452608,7.089519467626695]

s========================================================

V===============================================================

-0.32908987300830383 0.6309429972945555 0.16077051991193514

-0.2208243332000108 -0.1315794105679425 -0.2368641953308101

-0.35540818799208057 0.39958899365222394 -0.147099615168733

-0.37221718676772064 0.2541945113699779 -0.25918656625268804

-0.3499773046239524 -0.24670052066546988 -0.34607608172732196

-0.21080978995485605 0.036424486072344636 0.7867152486535043

-0.38111806017302313 -0.1925222521055529 -0.09403561250768909

-0.32751631238613577 -0.3056795887065441 0.09922623079118417

-0.3982876638452927 -0.40941282445850646 0.26805622896042314

V===============================================================

U====

null

U====

这里可以看到,由于限定了取前三个奇异值,所以奇异值向量s包含有三个从大到小排列的奇异值,而右奇异矩阵V中的每一列都代表了对应的右奇异向量。 U成员得到的是一个null值,这是因为在实际运用中,只需要V和S两个成员,即可通过矩阵计算达到降维的效果。

如果需要获得U成员,可以在进行SVD分解时,指定computeU参数,令其等于True,即可在分解后的svd对象中拿到U成员,如下文所示:

SingularValueDecomposition svd = rm.computeSVD(3,true,1.0E-9d);

System.out.println("U=================");

System.out.println(svd.U());

System.out.println("U=================");

控制台输出结果:

U============================================================

org.apache.spark.mllib.linalg.distributed.RowMatrix@25c2a9e3

U============================================================

三、优缺点

降维的好处:减小数据维度和需要的存储空间,节约模型训练计算时间,去掉冗余变量,提高算法的准确度,有利于数据可视化。简化数据,去除噪声点,提高算法的结果。

缺点:数据的转换可能难以理解;

适用数据类型:数值型。

四、 应用

通过SVD对数据的处理,我们可以使用小得多的数据集来表示原始数据集,这样做实际上是去除了噪声和冗余信息,以此达到了优化数据、提高结果的目的。有以下应用:

隐形语义索引:最早的SVD应用之一就是信息检索,我们称利用SVD的方法为隐性语义检索(LSI)或隐形语义分析(LSA)

推荐系统:SVD的另一个应用就是推荐系统,较为先进的推荐系统先利用SVD从数据中构建一个主题空间,然后再在该空间下计算相似度,以此提高推荐的效果。

参考资料:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值