本质矩阵svd分解_奇异值分解, 这一篇就够了

奇异值分解(SVD)是矩阵分解的重要方法,适用于矩阵压缩、去噪和降维等任务。本文介绍了SVD的概念、计算方法、矩阵重建、伪逆计算以及在降维中的应用。通过Python示例展示了如何使用SVD进行数据处理。
摘要由CSDN通过智能技术生成

(给机器学习算法与Python学习加星标,提升AI技能)

选自machinelearningmastery

作者:Jason Brownlee

本文转自机器之心(nearhuman2014)

奇异值分解(SVD)可能是最著名和使用最广泛的矩阵分解方法。所有矩阵都有一种 SVD 方法,这使得其比特征分解(eigendecomposition)等其它方法更加稳定。因此,这种方法在很多应用中都有应用,包括压缩、去噪、数据压缩。

在这份教程中,你将了解用于将矩阵分解成其组成元素的奇异值分解方法。

在完成本教程后,你将了解:

  • 奇异值分解是什么以及涉及什么

  • 如何计算 SVD 以及如何根据 SVD 元素重建矩形和方形矩阵

  • 如何使用 SVD 计算伪逆和执行降维

那就开始吧!

教程概览

本教程分为 5 部分,依次为:

1. 奇异值分解

2. 计算奇异值分解

3. 根据 SVD 重建矩阵

4. 用于伪逆的 SVD

5. 用于降维的 SVD

奇异值分解

奇异值分解(SVD)是一种用于将矩阵归约成其组成部分的矩阵分解方法,以使后面的某些矩阵计算更简单。

为了说明简单,我们将关注用于实数值矩阵的 SVD,而会忽略复数矩阵的情况。

4ed160de2b2df72bca0d6f9f97f0d594.png

其中 A 是我们希望分解的 n×m 的实矩阵,U 是一个 m×m 矩阵,Sigma(通常用大写的希腊字母 ∑表示)是一个 m×n 的对角矩阵,V^T 是一个 n×n 矩阵的转置,其中 T 是上标。奇异值分解是线性代数的一个亮点。

——《Introduction to Linear Algebra》第五版,2016 年,第 371 页

Sigma 矩阵中的对角值被称为原始矩阵 A 的奇异值。U 矩阵的列被称为 A 的左奇异向量,V 的列被称为 A 的右奇异向量。

SVD 是通过迭代式的数值方法计算的。我不会详细深入这些方法的细节。每一个矩形矩阵都有一个奇异值分解,尽管所得到的矩阵可能包含复数值以及浮点算术的局限性可能会导致某些矩阵无法简单利落地完成分解。

奇异值分解(SVD)提供了另一种将矩阵分解成奇异向量和奇异值的方式。SVD 让我们可以发现某些与特征分解同种类型的信息。但是,SVD 有更广的适用性。

——《Deep Learning》,2016 年,第 44-45

SVD 在矩阵求逆等其它矩阵运算的计算有广泛的应用,但也可用作机器学习中的数据归约方法。SVD 也可用在最小二乘线性回归、图像压缩和数据去噪中。

奇异值分解(SVD)在统计学、机器学习和计算机科学领域有很多应用。将 SVD

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值