机器学习复习:奇异值分解SVD

2 篇文章 0 订阅
1 篇文章 0 订阅

我的个人博客:https://huaxuan0720.github.io/ ,欢迎访问

前言

  奇异值分解(Singular Value Decomposition,以下简称SVD)是在一种十分经典的无监督的机器学习算法,它可以用于处理降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。

特征值和特征向量

  再了解SVD之前,对于矩阵的特征值和特征向量还是有必要做一个简单的回顾。

  假设矩阵 A A A是一个实对称矩阵,大小为 n × n n \times n n×n,如果有一个实数 λ \lambda λ和一个长度为 n n n的向量 α \alpha α,满足下面的等式关系:
(1) A α = λ α A \alpha = \lambda \alpha \tag{1} Aα=λα(1)
  我们就将 λ \lambda λ称为矩阵 A A A的特征值,将 α \alpha α称为矩阵 A A A的特征向量,是一个列向量。

  由线性代数的相关知识我们可以知道,对于一个 n n n阶的实对称矩阵,一定存在 n n n个相互正交的特征向量。对于每一个特征向量,我们可以将其规范化,使其模长 ∣ α ∣ |\alpha| α为1。于是,我们有:
α i T α i = 1 α i T α j = 0 , i ≠ j \alpha_i^T \alpha_i = 1 \\ \alpha_i^T \alpha_j = 0, \quad i \ne j αiTαi=1αiTαj=0,i̸=j
  我们将所有的特征值按照从大到小的顺序进行排列,并将对应的特征的特征向量也按照特征值的大小进行排列,于是,我们会有以下的个排列:
λ 1 , λ 2 , ⋯   , λ n α 1 , α 2 , ⋯   , α n \lambda_1, \lambda_2, \cdots, \lambda_n \\ \alpha_1, \alpha_2, \cdots, \alpha_n λ1,λ2,,λnα1,α2,,αn
  上面的所有的特征值可以依次被放入一个 n × n n \times n n×n的对角矩阵的对角线元素中,我们不妨称这个对角矩阵为 Σ \Sigma Σ,于是我们有:
Σ = [ λ 1 0 ⋯ 0 0 λ 2 ⋱ 0 ⋮ ⋮ ⋱ ⋮ 0 0 ⋱ λ n ] \Sigma = \begin{bmatrix} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & \ddots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ddots & \lambda_n \\ \end{bmatrix} Σ=λ1000λ2000λn
  同样,我们也将上述的特征向量按照特征值的顺序进行排列,也组成了一个 n × n n \times n n×n的矩阵,不妨记作 W W W,于是有:
W = [ α 1 , α 2 , ⋯   , α n ] W = [\alpha_1, \alpha_2, \cdots, \alpha_n] W=[α1,α2,,αn]
  综上,我们可以得到如下的关系式:
(2) A W = W Σ A W = W \Sigma \tag{2} AW=WΣ(2)
  在等式的两边同时乘以 W − 1 W^{-1} W1,我们可以得到:
(3) A = W Σ W − 1 A = W \Sigma W^{-1} \tag{3} A=WΣW1(3)
  考虑到特征向量彼此两两正交,模长为1,我们就有:
(4) W W T = E W W^T = E \tag{4} WWT=E(4)
  即:
(5) W − 1 = W T W^{-1} = W^T \tag{5} W1=WT(5)
  将式(5)代入式(3)中,我们可以得到:
(6) A = W Σ W − 1 = W Σ W T A = W \Sigma W^{-1} = W \Sigma W^T \tag{6} A=WΣW1=WΣWT(6)
  这是一个非常重要的关系,在前面我们就是利用这个关系来计算主成分分析PCA的。

奇异值分解SVD

  在前面已经找到了一个重要的关系,在我们之前的讨论过程中,我们已经知道满足这个条件的矩阵的要求是该矩阵是一个实对称矩阵,如果只是一个普通的矩阵 A m × n A_{m \times n} Am×n,我们其实也可以通过类似的方法进行矩阵分解,这时候我们需要构造的矩阵等式如下:
(7) A = U Σ V T A = U \Sigma V^T \tag{7} A=UΣVT(7)
  其中, U U U是一个大小为 m × m m \times m m×m的矩阵, Σ \Sigma Σ是一个大小为 m × n m \times n m×n的矩阵, V T V^T VT是一个大小为 n × n n \times n n×n的矩阵。
在这里插入图片描述

矩阵 U U U 的求解

  定义了相关的矩阵等式关系之后,我们既需要求解其中的每一个矩阵的具体数值。首先来求解矩阵 U U U的数值。

  首先构造矩阵 A A T AA^T AAT,该矩阵是一个大小为 m × m m \times m m×m的矩阵,然后我们对这个矩阵进行特征值和特征向量的求解,并按照对应特征值的大小对特征向量进行排序。我们这里设特征值序列和特征向量序列如下:
λ 1 , λ 2 , ⋯   , λ m u 1 , u 2 , ⋯   , u m \lambda_1, \lambda_2, \cdots, \lambda_m \\ u_1, u_2, \cdots, u_m λ1,λ2,,λmu1,u2,,um
  其中每一对特征值和特征向量都满足:
(7) ( A A T ) u i = λ i u i (AA^T) u_i = \lambda_i u_i \tag{7} (AAT)ui=λiui(7)
  我们将这些特征向量组合成一个矩阵,就是我们需要的矩阵 U U U, 即:
U = [ u 1 u 2 ⋯ u m ] U = \begin{bmatrix} u_1 & u_2 & \cdots & u_m\end{bmatrix} U=[u1u2um]

矩阵 V V V 的求解

  和求解矩阵 U U U类似,首先构造矩阵 A T A A^T A ATA,该矩阵是一个大小为 n × n n \times n n×n的矩阵,然后我们对这个矩阵进行特征值和特征向量的求解,并按照对应特征值的大小对特征向量进行排序。我们这里设特征值序列和特征向量序列如下:
σ 1 , σ 2 , ⋯   , σ n v 1 , v 2 , ⋯   , v n \sigma_1, \sigma_2, \cdots, \sigma_n \\ v_1, v_2, \cdots, v_n σ1,σ2,,σnv1,v2,,vn
  其中每一对特征值和特征向量都满足:
(8) ( A T A ) v i = σ i v i (A^TA) v_i = \sigma_i v_i \tag{8} (ATA)vi=σivi(8)
  我们将这些特征向量组合成一个矩阵,就是我们需要的矩阵 V V V, 即:
V = [ v 1 v 2 ⋯ v n ] V = \begin{bmatrix} v_1 & v_2 & \cdots & v_n\end{bmatrix} V=[v1v2vn]

矩阵 Σ \Sigma Σ 的求解

  当求出矩阵 U U U和矩阵 V V V时,我们就可以求出矩阵 Σ \Sigma Σ了:
U Σ V T = A Σ = U − 1 A ( V T ) − 1 U \Sigma V^T = A\\ \Sigma = U^{-1} A (V^T)^{-1} UΣVT=AΣ=U1A(VT)1
  考虑到矩阵 U U U和矩阵 V V V的特殊性质,即 U − 1 = U T U^{-1} = U^T U1=UT V − 1 = V T V^{-1} = V^T V1=VT,代入上面的式子中,我们有:
(9) Σ = U T A V \Sigma = U^T A V \tag{9} Σ=UTAV(9)

原理

  其实,以上的步骤并不是随便得来的,是有严格证明的,下面以证明矩阵 V V V为例进行说明。

  首先,我们等式 A = U Σ V T A = U \Sigma V^T A=UΣVT左右两边分别求矩阵转置,得到:
A T = V Σ T U T A^T = V \Sigma^T U^T AT=VΣTUT
  接着有:
A T A = ( V Σ T U T ) ( U Σ V T ) = V Σ T U T U Σ V T = V Σ T Σ V T = V ( U T A V ) T ( U T A V ) V T = V ( V T A T U ) ( U T A V ) V T = V V T A T U U T A V V T = A T A \begin{aligned} A^T A &= (V \Sigma^T U^T)(U \Sigma V^T) \\ &= V \Sigma^T U^T U \Sigma V^T \\ &= V \Sigma^T \Sigma V^T \\ &= V (U^T A V)^T (U^T A V) V^T \\ &= V (V^T A^T U)(U^T A V) V^T \\ &= V V^T A^T U U^T A V V^T \\ &= A^T A \end{aligned} ATA=(VΣTUT)(UΣVT)=VΣTUTUΣVT=VΣTΣVT=V(UTAV)T(UTAV)VT=V(VTATU)(UTAV)VT=VVTATUUTAVVT=ATA
  注意到上面证明过程的第三行,我们有 A T A = V Σ T Σ V T A^T A = V \Sigma^T \Sigma V^T ATA=VΣTΣVT,而矩阵 V V V是矩阵 A T A A^T A ATA的特征向量组成的矩阵,因此,矩阵 Σ T Σ \Sigma^T \Sigma ΣTΣ就是矩阵 A T A A^T A ATA的特征值组成的对角矩阵,这又给了我们一个新的求解 Σ \Sigma Σ矩阵的方法。当我们求出所有的 A T A A^T A ATA矩阵的特征值之后,我们在这些特征值的基础上进行开方操作,并将结果组成一个对角矩阵,这个对角矩阵就是我们需要的 Σ \Sigma Σ矩阵。 所以我们发现,实际上 Σ \Sigma Σ是一个对角矩阵,只在对角线上存在着有效元素,其他部位的元素都为0。我们将矩阵 Σ \Sigma Σ的对角线上的元素称为奇异值

  同样的道理,如果我们计算 A A T A A^T AAT,我们也能得到相同的结果,而计算过程就是证明矩阵 U U U的正确性的过程。

  接下来,我们考虑这样一件事,我们已经求解出了所有的矩阵信息,有 A = U Σ V T A = U \Sigma V^T A=UΣVT,我们同时在等式的左右两边乘以 V V V,有:
A V = U Σ V T V = U Σ AV = U \Sigma V^T V = U \Sigma AV=UΣVTV=UΣ
  即:
A [ v 1 v 2 ⋯ v n ] = [ u 1 u 2 ⋯ u m ] [ a 1          a 2          ⋱ ] m × n A \begin{bmatrix} v_1 & v_2 & \cdots & v_n\end{bmatrix} = \begin{bmatrix} u_1 & u_2 & \cdots & u_m\end{bmatrix} \begin{bmatrix} a_1 & \; & \; \\ \; & a_2 \; & \\ \; & \; & \ddots \end{bmatrix}_{m \times n} A[v1v2vn]=[u1u2um]a1a2m×n
  其中, a i a_i ai 表示的是 Σ \Sigma Σ 矩阵的对角线元素,所以有:
A v i = u i a i A v_i = u_i a_i Avi=uiai
  故:
(9) a i = A v i u i a_i = \frac{A v_i}{u_i} \tag{9} ai=uiAvi(9)
  上述也是一种求解 Σ \Sigma Σ矩阵的方法。

SVD的使用

  接下来,我们通过一个简单的例子来实际使用以下SVD。假设我们的数据矩阵 A A A如下:
A = [ 1 2 1 0 0 1 ] A = \begin{bmatrix} 1 & 2 \\ 1 & 0 \\ 0 & 1 \end{bmatrix} A=110201
  接下来我们计算 A T A A^T A ATA A A T A A^T AAT,有:
A A T = [ 1 2 1 0 0 1 ] [ 1 1 0 2 0 1 ] = [ 5 1 2 1 1 0 2 0 1 ] A T A = [ 1 1 0 2 0 1 ] [ 1 2 1 0 0 1 ] = [ 2 2 2 5 ] AA^T = \begin{bmatrix} 1 & 2 \\ 1 & 0 \\ 0 & 1 \end{bmatrix} \begin{bmatrix} 1 & 1 & 0 \\ 2 & 0 & 1 \end{bmatrix} = \begin{bmatrix} 5 & 1 & 2 \\ 1 & 1 & 0 \\ 2 & 0 & 1 \\ \end{bmatrix} \\ A^TA = \begin{bmatrix} 1 & 1 & 0 \\ 2 & 0 & 1 \end{bmatrix} \begin{bmatrix} 1 & 2 \\ 1 & 0 \\ 0 & 1 \end{bmatrix} = \begin{bmatrix} 2 & 2 \\2 & 5 \end{bmatrix} AAT=110201[121001]=512110201ATA=[121001]110201=[2225]
  对于矩阵 A A T AA^T AAT,我们可以求解出它的所有的特征值和特征向量,如下:
λ 1 = 6 , u 1 = [ 5 30 1 30 2 30 ] λ 2 = 1 , u 2 = [ 0 2 5 − 1 5 ] λ 3 = 0 , u 3 = [ − 1 6 1 6 2 6 ] \lambda_1 = 6, u_1 = \begin{bmatrix} \frac{5}{\sqrt{30}} \\ \frac{1}{\sqrt{30}} \\ \frac{2}{\sqrt{30}}\end{bmatrix} \quad \lambda_2 = 1, u_2 = \begin{bmatrix} 0 \\ \frac{2}{\sqrt{5}} \\ -\frac{1}{\sqrt{5}}\end{bmatrix} \quad \lambda_3 = 0, u_3 = \begin{bmatrix} -\frac{1}{\sqrt{6}} \\ \frac{1}{\sqrt{6}} \\ \frac{2}{\sqrt{6}}\end{bmatrix} λ1=6,u1=30 530 130 2λ2=1,u2=05 25 1λ3=0,u3=6 16 16 2
  对于矩阵 A T A A^TA ATA,我们可以求解出它的所有的特征值和特征向量,如下:
λ 1 = 6 , v 1 = [ 1 5 2 5 ] λ 2 = 1 , v 2 = [ 2 5 − 1 5 ] \lambda_1 = 6, v_1 = \begin{bmatrix} \frac{1}{\sqrt{5}} \\ \frac{2}{\sqrt{5}}\end{bmatrix} \quad \lambda_2 = 1, v_2 = \begin{bmatrix} \frac{2}{\sqrt{5}} \\ -\frac{1}{\sqrt{5}}\end{bmatrix} λ1=6,v1=[5 15 2]λ2=1,v2=[5 25 1]
  由上面的特征值信息,我们可以求出矩阵 Σ \Sigma Σ的对角线元素,即直接在特征值的基础上取根号即可,依次为:
a 1 = 6 , a 2 = 1 a_1 = \sqrt{6}, a_2 = 1 a1=6 ,a2=1
  由上面的所有计算结果,我们可以得到矩阵 U U U V V V Σ \Sigma Σ,如下:
U = [ 5 30 0 − 1 6 1 30 2 5 1 6 2 30 − 1 5 2 6 ] V = [ 1 5 2 5 2 5 − 1 5 ] Σ = [ 6 0 0 1 0 0 ] U = \begin{bmatrix} \frac{5}{\sqrt{30}} & 0 & -\frac{1}{\sqrt{6}} \\ \frac{1}{\sqrt{30}} & \frac{2}{\sqrt{5}} & \frac{1}{\sqrt{6}} \\ \frac{2}{\sqrt{30}} & -\frac{1}{\sqrt{5}} & \frac{2}{\sqrt{6}}\end{bmatrix} \\ V = \begin{bmatrix} \frac{1}{\sqrt{5}} & \frac{2}{\sqrt{5}} \\ \frac{2}{\sqrt{5}} & -\frac{1}{\sqrt{5}} \end{bmatrix} \\ \Sigma = \begin{bmatrix} \sqrt{6} & 0 \\ 0 & 1 \\ 0 & 0 \end{bmatrix} U=30 530 130 205 25 16 16 16 2V=[5 15 25 25 1]Σ=6 00010
  于是,我们的原始矩阵 A A A可以分解成如下:
A = U Σ V T A = U \Sigma V^T A=UΣVT
  即:
[ 1 2 1 0 0 1 ] = [ 5 30 0 − 1 6 1 30 2 5 1 6 2 30 − 1 5 2 6 ] [ 6 0 0 1 0 0 ] [ 1 5 2 5 2 5 − 1 5 ] \begin{bmatrix} 1 & 2 \\ 1 & 0 \\ 0 & 1 \end{bmatrix} = \begin{bmatrix} \frac{5}{\sqrt{30}} & 0 & -\frac{1}{\sqrt{6}} \\ \frac{1}{\sqrt{30}} & \frac{2}{\sqrt{5}} & \frac{1}{\sqrt{6}} \\ \frac{2}{\sqrt{30}} & -\frac{1}{\sqrt{5}} & \frac{2}{\sqrt{6}}\end{bmatrix} \begin{bmatrix} \sqrt{6} & 0 \\ 0 & 1 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} \frac{1}{\sqrt{5}} & \frac{2}{\sqrt{5}} \\ \frac{2}{\sqrt{5}} & -\frac{1}{\sqrt{5}} \end{bmatrix} 110201=30 530 130 205 25 16 16 16 26 00010[5 15 25 25 1]
  在前面的这个求解的例子中,我们很难发现SVD究竟有什么用处,毕竟求解矩阵乘积,矩阵的特征值和特征向量都是十分复杂是过程。实际上我们在求解奇异值的时候,可以利用矩阵的特征值进行求解,这样奇异值就和特征值具有相同的特点,如果按照从大到小的顺序排列奇异值,我们发现奇异值的数值下降很快,在有些情况下,奇异值前10%~15%的数值之和已经占据了全部奇异值数值之和的90%以上,而过于小的奇异值我们可以将其省略,因为奇异值太小,对最后的生成矩阵影响就会非常小,可以直接忽略不计。当我们采用这种策略的时候,我们可以适当的选取数值最大的几个奇异值,并选取对应的特征向量,这个时候我们就可以只是用这些数据来重构我们的原始矩阵。
在这里插入图片描述

  下面是一个具体的使用SVD重构数据矩阵的python代码实例,数据来源为《机器学习实战》一书。在代码中,我们试图去利用SVD重构一个01矩阵组成的数字0。

  数据如下:

00000000000000110000000000000000
00000000000011111100000000000000
00000000000111111110000000000000
00000000001111111111000000000000
00000000111111111111100000000000
00000001111111111111110000000000
00000000111111111111111000000000
00000000111111100001111100000000
00000001111111000001111100000000
00000011111100000000111100000000
00000011111100000000111110000000
00000011111100000000011110000000
00000011111100000000011110000000
00000001111110000000001111000000
00000011111110000000001111000000
00000011111100000000001111000000
00000001111100000000001111000000
00000011111100000000001111000000
00000001111100000000001111000000
00000001111100000000011111000000
00000000111110000000001111100000
00000000111110000000001111100000
00000000111110000000001111100000
00000000111110000000011111000000
00000000111110000000111111000000
00000000111111000001111110000000
00000000011111111111111110000000
00000000001111111111111110000000
00000000001111111111111110000000
00000000000111111111111000000000
00000000000011111111110000000000
00000000000000111111000000000000

  代码如下:

import numpy as np
import math


def load_data():
    matrix = []
    f = open("zero.txt")
    for i in f:
        line = i.strip("\n")
        line = list(line)
        matrix.append([int(i) for i in line])
    return np.array(matrix)


# 调整特征向量,使得所有向量的分量之和为正数。
def adjust(vectors):
    values = np.sum(vectors, axis=0)

    for i, v in enumerate(values):
        if v < 0:
            vectors[:, i] *= -1
    return vectors


# 利用numpy的求解特征值和特征向量的函数进行求解。
def eig(matrix):
    values, vectors = np.linalg.eig(matrix)
    # 有时候函数会返回复数值,这个时候我们只需要取其实数部分。
    values = np.real(values)
    vectors = np.real(vectors)

    # 按照特征值的大小进行排序。
    index = np.argsort(values)[::-1]
    values = values[index]
    vectors = adjust(vectors[:, index])

    # 由于求解过程存在一定的误差,因此特征值会出现极小的负数,我们可以直接将其置为0。
    values = np.maximum(values, 0)
    return values, vectors


def svd(matrix):
    # 返回左侧矩阵的特征值和特征向量
    left_values, left_vectors = eig(np.matmul(matrix, np.transpose(matrix)))

    # 返回右侧矩阵的特征值和特征向量
    right_values, right_vectors = eig(np.matmul(np.transpose(matrix), matrix))

    # Sigma矩阵
    sigma = np.zeros_like(matrix, dtype=np.float64)

    for i in range(min(len(left_values), len(right_values))):
        sigma[i][i] = math.sqrt(left_values[i])

    printMat(np.matmul(np.matmul(left_vectors, sigma), np.transpose(right_vectors)))
    pass


# 输出,这里借鉴了《机器学习实战》一书的输出模板
def printMat(inMat, thresh=0.6):
    for i in range(32):
        for k in range(32):
            if float(inMat[i, k]) > thresh:
                print("1", end="")
            else:
                print("0", end="")
        print()


if __name__ == '__main__':
    matrix = load_data()
    svd(matrix)

  结果如下:

00000000000000000010000000000000
00000000000011011110000000000000
00000000000111111110000000000000
00000000001111111111000000000000
00000000000111111110111010000000
00000000001101111111111110000000
00000000011111111111111010000000
00000000001111000001111110000000
00000000001111000001111110000000
00000011111100000000111100000000
00000011111100000000111100000000
00000011111100000000011110000000
00000011111100000000011110000000
00000000111110000000001111000000
00000011111110000000001111000000
00000011111100000000001111000000
00000001111100000000001111000000
00000011111100000000001111000000
00000001111100000000001111000000
00000001111100000000001110000000
00000000111110000000001111100000
00000000111110000000001111100000
00000000111110000000001111100000
00000000111110000000001111000000
00000000111110000000111101000000
00000000111111000001111110000000
00000000111111111111111100000000
00000000111111111111100000000000
00000000111111111111100000000000
00000000000011111111100000000000
00000000000011111111110000000000
00000000000000111111000000000000

  可以看到,我们自己实现的SVD可以较好地重构出原始数据矩阵。由于求解过程中的误差,我们的重构结果和实际的数据矩阵还是有些不同的,所以,numpy已经将SVD进行了封装,我们可以直接使用其封装好的函数进行求解SVD,这样求出的结果会比自己手动求解的结果好。

  使用numpy中的SVD的代码如下:

import numpy as np
import math


def load_data():
    matrix = []
    f = open("zero.txt")
    for i in f:
        line = i.strip("\n")
        line = list(line)
        matrix.append([int(i) for i in line])
    return np.array(matrix)


def printMat(inMat, thresh=0.8):
    for i in range(32):
        for k in range(32):
            if float(inMat[i, k]) > thresh:
                print(1, end="")
            else:
                print(0, end="")
        print()


def imgCompress(numSV=5, thresh=0.8):
    matrix = load_data()

    print("****original matrix******")
    printMat(matrix, thresh)
    U, Sigma, VT = np.linalg.svd(matrix)
    SigRecon = np.zeros((numSV, numSV))
    for k in range(numSV):  # construct diagonal matrix from vector
        SigRecon[k, k] = Sigma[k]
    reconMat = np.matmul(np.matmul(U[:, :numSV], SigRecon), VT[:numSV, :])
    print("****reconstructed matrix using %d singular values******" % numSV)
    printMat(reconMat, thresh)


if __name__ == '__main__':
    imgCompress()

  结果如下:

****original matrix******
00000000000000110000000000000000
00000000000011111100000000000000
00000000000111111110000000000000
00000000001111111111000000000000
00000000111111111111100000000000
00000001111111111111110000000000
00000000111111111111111000000000
00000000111111100001111100000000
00000001111111000001111100000000
00000011111100000000111100000000
00000011111100000000111110000000
00000011111100000000011110000000
00000011111100000000011110000000
00000001111110000000001111000000
00000011111110000000001111000000
00000011111100000000001111000000
00000001111100000000001111000000
00000011111100000000001111000000
00000001111100000000001111000000
00000001111100000000011111000000
00000000111110000000001111100000
00000000111110000000001111100000
00000000111110000000001111100000
00000000111110000000011111000000
00000000111110000000111111000000
00000000111111000001111110000000
00000000011111111111111110000000
00000000001111111111111110000000
00000000001111111111111110000000
00000000000111111111111000000000
00000000000011111111110000000000
00000000000000111111000000000000
****reconstructed matrix using 5 singular values******
00000000000000000000000000000000
00000000000000111100000000000000
00000000000000111110000000000000
00000000000011111110000000000000
00000000111111111111000000000000
00000000111111111111100000000000
00000000111111111111110000000000
00000000111111000001111000000000
00000000111110000000111000000000
00000001111100000000011100000000
00000011111100000000011110000000
00000011111100000000011110000000
00000011111100000000011110000000
00000000111100000000001111000000
00000001111100000000001111000000
00000001111100000000001111000000
00000001111100000000001111000000
00000001111100000000001111000000
00000001111100000000001111000000
00000001111100000000001110000000
00000000111110000000001111000000
00000000111110000000001111000000
00000000111110000000001111000000
00000000111110000000001111000000
00000000111110000000001110000000
00000000111110000000111100000000
00000000001111111111111110000000
00000000000111111111111110000000
00000000000111111111111110000000
00000000000011111111110000000000
00000000000011111111100000000000
00000000000000111110000000000000

  可以发现,当我们只使用5个奇异值以及其对应的特征向量的时候,我们就可以获得非常好的重构效果,这个时候,我们的数据量为:
s = 32 ∗ 5 + 5 + 5 ∗ 32 = 325 c o m p r e s s _ r a t e = 325 32 ∗ 32 = 37.1 % s = 32 * 5 + 5 + 5 * 32 = 325 \\ compress\_rate = \frac{325}{32 * 32} = 37.1\% s=325+5+532=325compress_rate=3232325=37.1%
  我们的数据量仅仅是原来的三分之一,因此可以SVD很好的进行数据压缩。

SVD和PCA

  在求解SVD的过程中,我们求解了两个特殊的矩阵 U U U V V V ,实际上, U U U 被称为是左奇异矩阵, V V V 被称为是右奇异矩阵。

  回想起在求解PCA的过程中,我们也需要求解右奇异矩阵,并利用右奇异矩阵进行了数据的降维,这就是右奇异矩阵的作用之一。当我们考察左奇异矩阵的时候,发现合理的使用右奇异矩阵本质上是对数据量进行了一定的减小,当我们拥有一个矩阵 A A A,大小为 m × n m \times n m×n,其中, m m m 表示的是数据量,即行数, n n n 表示的是数据的维度数目,即列数,当我们对数据矩阵右乘右奇异矩阵的时候,列数可以根据选择的特征向量的数目进行减小,当我们当数据矩阵左乘左奇异矩阵的时候,行数可以根据选择的特征向量的数目进行减小。因此,左奇异矩阵可以压缩行数,右奇异矩阵可以压缩列数,综合在一起就可以对数据进行较为全面的压缩。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值