SVD

SVD的认识与联系

特征值分解和奇异值分解,在机器学习中属于比较常见的方法。两者有着密切的关系,而SVD(奇异值分解)和特征值分解的目的都是提取一个矩阵最重要的特征

基础定义

(一)特征值
在介绍SVD之前,先初步介绍一下特征值
设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是矩阵A的一个特征值(characteristic value)或本征值(eigenvalue)。,一个矩阵的一组特征向量是一组正交向量。
而特征值分解是将矩阵分解成A=Q∑Q^-1
其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。
(二)奇异值
特征值分解在提取矩阵特征来说是一个很不错的方法,但是这只是对方阵而言,而在实际应用中,很多的矩阵都不是方针,这是就需要奇异值进行解决了。比如说在一个班里面里面有A个学生,每个学生有B个科目的成绩,这样看下去A≠B的情况下,这种就不是方阵了,这时就需要奇异值分解来完成这件事。

  • 8
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值