特征分解(Eigendecomposition)

        身为一个刚进入研究生学习的学生,在此记录下我的学习过程,目前在整理机器学习所需要的线代知识,所记录的线代知识大部分为考研之外的知识点。

       分解矩阵的方式可以向我们展示在矩阵的元素排列表示中不明显的那些信息。一种最广泛使用的矩阵分解称为特征分解,其中我们将一个矩阵分解成一组特征向量和特征值。方阵A的特征向量是一个非零向量v,并且乘A只改变v的比例:

Av = λv

      其中标量λ是这个特征向量所对应的特征值。我们也可以找到一个左特征向量使v^{T}A = λv^{T} ,但我们通常关心的是右特征向量。如果v是A的特征向量,那么对于s∈R,任何缩放的向量sv也是特征向量,s ≠0。而且,sv仍然具有相同的特征值。由于这个原因,我们通常只寻找单位特征向量。

      令V=[v^{(1)},...,v^{(n)}],λ=[\lambda ^{(1)},...,\lambda ^{(n)}] ,A的特征分解如下:

 A=Vdiag(\lambda )V^{-1}

 

     每一个实对称矩阵都可以只用实值特征向量和特征值分解为一个表达式:

 A=Q\Lambda Q^{T}

     其中Q是A的特征向量组成的正交矩阵,Λ是对角矩阵。特征值\lambda _{i,i}与Q的第i列中的特征向量相关联,记为Q_{:,i}。任何实对称矩阵A都保证有一个特征分解,但特征分解不一定是唯一的。如果任意两个或更多的特征向量共享相同的特征值,那么在它们张成的空间中的任意正交向量集也是具有那个特征值的特征向量,我们可以等价地用那些特征向量来选择Q。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

嚯嚯火火火

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值