实对称矩阵的特征值求法_机器学习与线性代数 - 特殊矩阵

0d9604d088ab34086ca7f4dee1af5856.png

在线性代数中,有一些特殊的矩阵具有易于分析和操作的特性。它们的特征向量可能具有特定的特征值或特殊关系。还有一些方法可以将一个矩阵分解成这些“更简单”的矩阵。

dcf77eb3d17da782a186e5826e8bf32c.png

操作复杂性的降低提高了可伸缩性。然而,即使这些矩阵都是特殊的,它们也不是罕见的。在机器学习和许多应用程序中,我们经常需要处理它们。

对角矩阵

对角矩阵S使所有非对角元素等于零。

5f647358f521b84bd0a11a0bdfccc462.png

许多分解方法都有一个分解后的矩阵是对角矩阵。由于矩阵只包含对角元素,我们有时用向量来表示它。

4e4199977d117bccfad77b5618cbd74c.png

一般矩阵的逆不容易计算。但是求对角矩阵的逆很简单。我们可以用1/m替换对角线元素。

367c26f5f5449fdf609f135f2de67685.png

如果其中一个矩阵是对角的,矩阵乘法就简单多了。但是当任何对角元素等于0或者对角矩阵不是方形的时候,它的逆就不存在。但是,在一些方法中,伪逆矩阵(keep the inverse of 0 as 0)可以用作替代。

正交矩阵

正交矩阵Q是满足下列要求的方形矩阵

6163964e1ee6d55490e26b17744e2ad7.png

Q中的所有列(v 1 ,...,v 6 ,...)都是正交的,即对于i≠j,vᵢᵀvⱼ= 0,vᵢ都是单位向量。

f7b2ca7a4e89312a64731e720b5a90aa.png

这听起来像是一个严格的要求但是对于一些矩阵,比如对称矩阵,我们可以选择特征向量在分解过程中是正交的。

以下矩阵是正交的。

8cf0764cddf672131e9b296017fb93d5.png

像对角矩阵一样,它的逆也很容易计算 - 正交矩阵的逆是它的转置。这是正交矩阵非常方便的一个关键原因。

ddf28523c19a0401dff1e1071a89c966.png

证明:

b504edbab63997099dec2221e6bd5426.png

如果我们用正交矩阵乘以x, x中的误差不会被放大。这种行为对于保持数值稳定性是非常理想的。

cdc7e41d6eb0b18b3be238a0a4820bb1.png

对称矩阵

如果矩阵的转置等于自身,则矩阵是对称的。

82b8428af45dc2d4364a8a3099adb3e4.png

例如,

fceb59566d70a85381de29e8f708c32a.png

对称矩阵是线性代数和机器学习中最重要的矩阵之一。在机器学习(ML),我们经常使用矩阵保存f(vᵢ , vⱼ)。这些函数通常是对称的,f(x, y) = f(y, x),因此对应的矩阵是对称的。例如在机器学习中,f可以测量数据点之间的特征距离,或者计算特征的协方差。

2f8bc874314c6dac199b659f2776785d.png

对称矩阵属性

对称矩阵S是n×n方形矩阵。

  • 它的逆也是对称的。
  • S的所有特征值都是实数(不是复数)。
  • 即使重复的特征值,我们也可以选择S的 n个本征向量为正交。
  • 可以通过将矩阵A与其转置 - AᵀA或AAᵀ(通常AᵀA ≠ AAᵀ)相乘来形成对称矩阵。在机器学习中,以零为中心的协方差矩阵就是这种形式。
f969f570590d1a9514550c6fe9c19482.png
  • 如果 A的列是线性无关的,则 AᵀA是可逆的。
  • 每个对称矩阵小号可以进行对角化(因式分解)与Q由正交的特征向量形成vᵢ的小号和Λ是对角矩阵保持所有的特征值。
  • 每个对称矩阵S可以被对角化(分解),其中Q由S的正交特征向量vi形成,Λ是对角矩阵的所有特征值。
dfe35e7851e020f8a69ec95ded31aea2.png

上面的等式可以改写为

82e00a43f569cc0931da3f9b99d38ea1.png

其中v是单位向量。因此,特征值项λᵢ主导了上述每个项的重要性。事实上,如果它太小,我们可以完全放弃相应的项λᵢvᵢvᵢᵀ。

该分解特性和“ S具有n个正交特征向量”是对称矩阵的两个重要特性。

正交特征向量

特征向量不是唯一的。但通常,我们可以“选择”一组特征向量来满足某些特定条件。如前所述,对称矩阵的特征向量可以选择为正交。如果S是对称矩阵,则其特征值λ和μ满足以下条件。

5229cad91c85ab1f9791cbca22b1fcb2.png

证明

ce6ed035858c6549d6e39ed8ac44e6c0.png

从这种情况来看,如果λ和μ具有不同的值,则等效性迫使内积为零。因此,x和y是正交的,并且很容易将它们归一化为具有单位长度 - 正交。这证明了如果它们的相应特征值不同,我们可以选择S的特征向量是正交的。即使有重复的特征值,对于对称矩阵仍然如此。

证明 - 第2部分(可选)

对于n×n对称矩阵,我们总能找到n个独立的正交特征向量。最大的特征值是

a658c805fbca355ce640bb494776ee7a.png

为了求最大值,我们令r(x)的导数为0。经过一些处理,得到

044dc80927f381626d1ad64f5d8919aa.png

即,当x是特征向量且特征值最大时,r(x)的比值最大。通过归纳,我们可以推导出我们可以用正交于前一个的特征向量找到下一个最高的特征值。这只是证明的高级描述。

谱定理(Spectral theorem)

让我们总结一下。每个n×n对称矩阵S具有n个实特征值λᵢ,其中有n个正交特征向量vᵢ。

350f22f7a4703499f04b881745b244e9.png

这些特征值可以形成对角矩阵Λ as diag(λ)。我们还可以将特征向量vᵢ连接到V,即,

aa602a23d309c4d34fbc1e8e38588fa5.png

我们将V重命名为Q.因为Q是正交的,所以它是可逆的并且Qᵀ= Q-1。因此,对称矩阵S可以分解为

d97a940bfc9abbaea0e0387164487409.png

这是谱定理。因为找到转置比逆转更容易,所以在线性代数中非常需要对称矩阵。

正定矩阵

正定矩阵具有所有正特征值。它是对称的。这听起来很不寻常,但现实生活中的许多矩阵都是肯定的。下面的术语计算具有状态x的系统的能量(energy)。如果S是正定的,它保证能量保持为正,除非x为零。

86269e748ce04f6fe588a79eea31a5ad.png

在许多应用中,我们假设能量是正的,因此,相应的S应该是正定的。

测试正定性有许多等效条件。如果以下任何测试为真,则对称矩阵S为正定的:

1.所有特征值> 0,

a8c24597d645b78ac72e0e797b085b8e.png

2.所有左上角的行列式> 0,

2bd89fce08870d146eec019fb6f1d2b6.png

3.所有pivots > 0,

517190544fb4712b8f382ac9fcef6a80.png

4.能量(energy)> 0,除了x = 0,

ba059862f92eaf6808e0b859fcaf4f68.png

5. S可以由一个列向量无关的矩阵a构成。

7ed53bb51e20db5f0ee59fb9e0bd55f6.png

验证所有特征值是正的需要很多工作。因此,条件2或3是更常见的测试。例如,正pivots 意味着正特征值(反之亦然)。另一方面,如果我们通过上述测试之一证明矩阵是正定的,我们保证它拥有上述所有属性。

证明

在本节中,我们将证明上面的一些属性。如果S是正定的,则​​所有λ都是正的。因此,相应状态x的计算能量为正(x = 0除外)。

87eeec281753003b24b5fbd2a297b4d1.png

如果S由AᵀA组成,则S在能量测试下为正。

52169a5ff0709557de99bf0b6be9596d.png

除了正定,我们还有半正定,负定和半负定。半正定用“≥”替换上面的所有“>”条件(例如,它的特征值是大于或等于0 ),负定和半负定与正定和半正定相反。

Minimum

在微积分中,我们将f的一阶导数设置为零以找到其临界点。然而,这样的点可以是最大值,最小值或鞍点。许多机器学习模型以二次形式xAᵀx表示其成本函数。知道这个函数是否是凸函数是很重要的。因为如果它是凸的,我们知道局部最小值也是全局最小值。如果A是正定的,则​​二次函数是凸的。

ebf77d8396bc423bc1ce1392dd5fed44.png

对于任何函数f,我们计算下面的Hessian矩阵。如果A是正定的,则​​相应的点是局部最小值。

c4bed63343dc4ce911ecf43098dfb776.png

协方差矩阵

在机器学习中,我们非常有兴趣找到特征之间的相关性。下图显示了重量和高度之间的正相关关系。

d162be2e4162df5be03234bee5c64daf.png

在机器学习中,我们用协方差矩阵Σ建模关系。

ff9c05f67d3f1bcb6f5d012df590a062.gif

协方差矩阵是半正定的。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值