机器学习中的数学——奇异值分解

分类目录:《算法设计与分析》总目录


《机器学习中的数学——特征分解》,我们探讨了如何将矩阵分解成特征向量和特征值。还有另一种分解矩阵的方法,被称为奇异值分解,将矩阵分解为奇异向量和奇异值。通过奇异值分解,我们会得到一些与特征分解相同类型的信息。然而,奇异值分解有更广泛的应用。每个实数矩阵都有一个奇异值分解,但不一定都有特征分解。例如,非方阵的矩阵没有特征分解,这时我们只能使用奇异值分解。回想一下,我们使用特征分解去分析矩阵 A A A时,得到特征向量构成的矩阵 V V V和特征值构成的向量 λ λ λ,我们可以重新将 A A A写作:
A = V diag ( λ ) V − 1 A=V\text{diag}(\lambda)V^{-1} A=Vdiag(λ)V1

奇异值分解是类似的,只不过这回我们将矩阵 A A A分解成三个矩阵的乘积:
A = U D V T A=UDV^T A=UDVT

假设 A A A是一个 m × n m\times n m×n的矩阵,那么 U U U是一个 m × m m\times m m×m的矩阵, D D D是一个 m × n m\times n m×n的矩阵, V V V是一个 n × n n\times n n×n矩阵。

这些矩阵中的每一个经定义后都拥有特殊的结构。矩阵 U U U V V V都定义为正交矩阵,而矩阵 D D D定义为对角矩阵。注意,矩阵 D D D不一定是方阵。

对角矩阵 D D D对角线上的元素被称为矩阵 A A A的奇异值。矩阵 U U U的列向量被称为左奇异向量,矩阵 V V V的列向量被称右奇异向量。

事实上,我们可以用与 A A A相关的特征分解去解释 A A A的奇异值分解。 A A A的左奇异向量是 A A T AA^T AAT的特征向量。 A A A的右奇异向量是 A T A A^TA ATA的特征向量。 A A A的非零奇异值是 A T A A^TA ATA特征值的平方根,同时也是 A A T AA^T AAT特征值的平方根。

  • 4
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

von Neumann

您的赞赏是我创作最大的动力~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值