特征向量、特征值分解、奇异值分解SVD

本文介绍了特征向量和特征值的几何意义,阐述了它们在线性变换中的作用,特别是在矩阵表示的线性变换中如何保持方向不变。特征值分解用于提取矩阵的重要特征,而奇异值分解(SVD)则适用于非方阵,进一步分离矩阵变换中的旋转、缩放和投影效应。SVD通过正交矩阵和对角化的奇异值矩阵来分解矩阵,提供了一种更通用的矩阵分解方法。
摘要由CSDN通过智能技术生成

写在前面:

现有的印象是:特征向量代表向量最坚守的部分,方向不变,只是会伸缩。而特征分解是沿着最重要的特征向量方向上的分解,有SVD分解、PCA主城成分分析等。但无法深入讲下去了。


特征值和特征向量的几何意义

矩阵乘法其实是对应着一个线性变换,是把任意一个向量变成另一个方向或者长度的新向量。在这个变换中,原向量主要发生旋转、伸缩的变化。如果某个向量x在矩阵A作用下只发生了伸缩变化,其位置仍停留在原来的直线上,称这些向量为矩阵的特征向量,伸缩的比例就是特征值

定义:

几何意义:

对于实对称矩阵来说,不同特征值对应的特征向量必定正交;我们也可以说,一个变换矩阵的所有特征向量组成了这个变换矩阵的一组基;

在机器学习特征提取中,意思就是最大特征值对应的特征向量方向上包含最多的信息量,如果某几个特征值很小,说明这几个方向信息量很小,可以用来降维,也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据,这样做以后数据量减小,但有用信息量变化不大,PCA降维就是基于这种思路。我们通过特征值分解得到的对应特征值较大的前N个特征

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值