机器学习复习14-PCA和SVD

SVD

SVD,奇异值分解,是属于矩阵分解里面的一种方法
矩阵分解中还有一种比较常用的方法,如下图:
在这里插入图片描述
上图中的矩阵A 为 n*n 的对称矩阵,那么如果矩阵A不对称呢?不对称矩阵A的分解就叫做奇异值分解SVD,如下图:
在这里插入图片描述
在这里插入图片描述
所以接下来要对U、S、V进行求解,当对U、S、V求解完毕,就相当于对该矩阵A成功的进行了SVD分解了
在这里插入图片描述
上述求解过程不需要掌握,知道就行。
在这里插入图片描述
至此,SVD完成~

SVD与PCA的关系

上述对SVD的描述,是对SVD本身分解过程计算U、S、V过程的描述,但是并未涉及到SVD怎么关联上降维、PCA的问题。我们先简略说下之前学过的PCA:

求得投影矩阵 P ( m × k ) P(m×k) P(m×k)后,将数据集 X ( n × m ) X(n×m) X(n×m)做线性变换 P P P可以得到降维后的结果 Y ( n × k ) Y(n×k) Y(n×k)。(其中 n n n是样本的条数, m m m是原始数据特征的维度, k k k是降维后特征的维度),即 Y = X P Y=XP Y=XP

PCA从输入输出的角度来理解,是上述那样;如果从过程来理解,则为:
先求出X的协方差矩阵,求出该矩阵的特征值和特征向量,将特征值排序,选择前k个主要特征值(主成分),丢弃掉剩余特征,即完成了降维操作。

而SVD则可以直接对X进行奇异值分解,得到
X = U S V T X=USV^T X=USVT
其中的 V V V相当于PCA中的 P P P
U S US US相当于PCA后的结果 Y Y Y

说简单点,对数据集X做SVD就可以直接得到PCA的结果Y
上述结论的推导过程如下,不需要掌握:
在这里插入图片描述
其实这也意味着,求解PCA,我们并不是只有求解协方差矩阵一条路可以走,直接SVD求解反而很多时候效果很好。


以上便是 SVD 以及 PCA和SVD 的 联系与区别。KO~

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Xu_Wave

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值