SVD(Singular Value Decomposition, 奇异值分解)数学证明

奇异值分解(SVD)在机器学习、图像压缩中应用很多,使用它能够节省很多存储空间。这里主要从数学原理上阐述SVD的证明。

奇异值分解定义

对任意矩阵 A ∈ R m × n A \in R^{m\times n} ARm×n,存在正交矩阵 U ∈ R m × m , V ∈ R n × n U \in R^{m \times m}, V\in R^{n \times n} URm×m,VRn×n及除了主对角线上的元素以外全为0的矩阵 Σ ∈ R m × n \Sigma \in R^{m \times n} ΣRm×n,使得 A = U Σ V T A = U\Sigma V^{T} A=UΣVT,其中 Σ \Sigma Σ的主对角元上的元素满足 σ 11 ≥ σ 22 ≥ . . . ≥ σ k k , k = m i n ( m , n ) . \sigma_{11} \ge \sigma_{22} \ge...\ge \sigma_{kk}, k= min(m,n). σ11σ22...σkk,k=min(m,n).
其中称 σ i = λ i , i = 1 , 2 , . . . , r \sigma_i = \sqrt{\lambda_i}, i=1,2,...,r σi=λi ,i=1,2,...,r A A A奇异值 r r r A A A的秩且 λ 1 , λ 2 , . . . , λ r \lambda_1,\lambda_2,...,\lambda_r λ1,λ2,...,λr A T A A^{T}A ATA的非零特征值。

数学证明

因为 A T A A^{T}A ATA为实对称矩阵,所以存在正交矩阵 V V V使得 V T A T A V = d i a g ( λ 1 , . . . , λ n ) , V^{T}A^{T}AV=diag(\lambda_1,...,\lambda_n), VTATAV=diag(λ1,...,λn),其中 λ 1 , . . . , λ n \lambda_1,...,\lambda_n λ1,...,λn A T A A^{T}A ATA的特征值。
因为 A T A v i = λ i v i , A^{T}Av_i=\lambda_iv_i, ATAvi=λivi, v i T A T A v i = λ i v i T v i = λ i , v_i^{T}A^{T}Av_i=\lambda_iv_i^{T}v_i=\lambda_i, viTATAvi=λiviTvi=λi,所以 λ i = ( A v i ) T A v i ≥ 0 \lambda_i=(Av_i)^{T}Av_i\ge0 λi=(Avi)TAvi0则不妨设 λ 1 ≥ . . . ≥ λ n ≥ 0. \lambda_1\ge...\ge\lambda_n\ge0. λ1...λn0.

V = ( v 1 , . . . , v n ) , V=(v_1,...,v_n), V=(v1,...,vn) v i ( i = 1 , . . . , n ) v_i(i=1,...,n) vi(i=1,...,n) A T A A^{T}A ATA的属于 λ i \lambda_i λi的特征向量以及 R n R^{n} Rn的一组标准正交基,设 r = r a n k ( A ) r=rank(A) r=rank(A),有 ( A v i , A v j ) = v i T A T A v j = v i T λ j v j = { λ i ≠ 0 , if  i = j 0 , if  i ≠ j   ( i , j = 1 , . . . , r ) (Av_i,Av_j)=v_i^{T}A^{T}Av_j=v_i^{T}\lambda_jv_j=\begin{cases} \lambda_i\neq0, & \text{if $i=j$} \\ 0, & \text{if $i\neq j$ } \end{cases}(i,j=1,...,r) (Avi,Avj)=viTATAvj=viTλjvj={λi=0,0,if i=jif i=j (i,j=1,...,r)
其中, λ i = ∣ A v i ∣ , ( i = 1 , . . . , r ) \sqrt{\lambda_i}=|Av_i|,(i=1,...,r) λi =Avi,(i=1,...,r),且 A v 1 , . . . , A v r Av_1,...,Av_r Av1,...,Avr也为正交基,
u i = A v i ∣ A v i ∣ , i = 1 , . . . , r u_i=\frac{Av_i}{|Av_i|},i=1,...,r ui=AviAvi,i=1,...,r再将 u 1 , . . . , u r u_1,...,u_r u1,...,ur扩充成 R m R^{m} Rm的一组标准正交基 u 1 , . . . , u r , . . . , u m . u_1,...,u_r,...,u_m. u1,...,ur,...,um. U = ( u 1 , . . . , u m ) U=(u_1,...,u_m) U=(u1,...,um), 有 A V = A ( v 1 , . . . , v n ) = ( A v 1 , . . . , A v r , 0 , . . . , 0 ) = ( λ 1 u 1 , . . . , λ r u r , 0 , . . . , 0 ) = ( u 1 , . . . , u m ) d i a g ( λ 1 , . . . , λ r , 0 , . . . , 0 ) AV=A(v_1,...,v_n)=(Av_1,...,Av_r,0,...,0)=(\sqrt{\lambda_1}u_1,...,\sqrt{\lambda_r}u_r,0,...,0)\\=(u_1,...,u_m)diag(\sqrt{\lambda_1},...,\sqrt{\lambda_r},0,...,0) AV=A(v1,...,vn)=(Av1,...,Avr,0,...,0)=(λ1 u1,...,λr ur,0,...,0)=(u1,...,um)diag(λ1 ,...,λr ,0,...,0)所以 A = U Σ V T A=U\Sigma V^{T} A=UΣVT λ 1 ≥ . . . ≥ λ r . \sqrt{\lambda_1}\ge...\ge\sqrt{\lambda_r}. λ1 ...λr .

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 奇异值分解Singular Value DecompositionSVD)是一种矩阵分解的方法,将一个矩阵分解为三个矩阵的乘积,其中一个矩阵是正交矩阵,另外两个矩阵是对角矩阵SVD在数据分析、信号处理、图像处理等领域有广泛的应用。它可以用于降维、数据压缩、矩阵近似、特征提取等任务。 ### 回答2: 奇异值分解Singular Value DecompositionSVD)是矩阵分解的一种方法,它可以将一个复杂的数据矩阵分解成三个简单的矩阵的乘积的形式。这三个矩阵包括:左奇异向量矩阵、奇异值矩阵和右奇异向量矩阵。 在SVD中,奇异值是矩阵的特征值,奇异向量是矩阵的特征向量,而左奇异向量和右奇异向量分别代表数据矩阵在两个不同空间上的特殊变换。在数据处理和分析中,SVD可以用于减少噪声,压缩数据,以及解决线性方程组等问题。 SVD最初由数学家Eckart和Young在1936年提出,而在20世纪60年代和70年代,它才得到了广泛的应用。目前,SVD已经成为了很多数据分析、机器学习和人工智能领域中最常用的技术之一。 在实际应用中,SVD可以用于图像处理、推荐系统、自然语言处理、文本分类、维度约简和信号处理等领域。例如,在推荐系统中,SVD可以用于预测用户对产品的评分,从而为用户推荐最符合他们兴趣的商品。在文本分类中,SVD可以将高维的单词向量映射到低维空间中,从而提高分类的性能。 虽然SVD在许多应用中取得了成功,但其计算代价很高,因此通常需要进行优化以提高效率。一些优化技术包括截断SVD(Truncated SVD)、随机SVD(Randomized SVD)和增量SVD(Incremental SVD)等。这些技术可以降低计算复杂度和内存消耗,提高SVD的速度和可用性。 ### 回答3: 奇异值分解singular value decomposition, 简称SVD)是一种用于矩阵分解的数学方法,它将一个复杂的矩阵分解成三个部分:U、Σ、V。其中U和V都是正交矩阵,而Σ是一个对角矩阵,对角线上的元素称为奇异值。SVD的应用广泛,例如在图像压缩、信号处理、语音识别、推荐系统等领域都有重要的作用。 SVD的本质目标是将矩阵M表示为下述的累加形式: M = UΣV^T 其中,U和V都是矩阵,Σ是一个对角线上元素按从大到小排列的矩阵,它们的关系是这样的:矩阵M的秩r等于Σ中非零元素的个数。因此,奇异值从大到小表示了矩阵中的信号能量大小,而U和V则表示了信号在不同的方向上的分解。 SVD可以应用于很多问题中。例如,在图像压缩中,可以使用SVD对图像矩阵进行分解,并选取前k个奇异值对应的列向量,再把它们相乘,得到一个近似于原图像的低维矩阵,从而实现图像的压缩。在推荐系统中,SVD可以用来将用户评价和物品特征分解成低维矩阵,从而实现对用户和物品的推荐。此外,SVD还被广泛地应用于语音识别、图像识别等领域。 总的来说,SVD是一种强有力的数学工具,它可以对矩阵进行分解,并提取出有用的信息。由于它的广泛应用和独特的分解方式,SVD也成为了计算机科学和应用数学中的一个热门研究领域。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值