SVD与PCA之间的关系详解

假设现在有一个数据矩阵 X ,其大小是 n×p ,其中 n is the number of samples and p is the number of variables (或features)。这里, XT 可以写成 {x1,x2,,xn} x1 表示一个长度为 p 的列向量,也就是说,XT 包含 n independent observations x1,x2,,xn,其中每个都是一个 p-dimensional 的列向量,这与【7】中的写法相一致。

现在,不失普遍性地,让我们假设 X is centered, 即 column means have been subtracted and are now equal to zero。如果 X is not centered,也不要紧,我们可以通过计算其与centering matrix H 之间的乘法来对其中心化。 H=IeeT/p , 其中 e is a 每个元素都是1的 column vector。

基于上述条件,可知p×p大小的协方差矩阵 covariance matrix C 可由 C=XTX/(n1) 给出。此处,我们稍微补充一下协方差矩阵与相关性矩阵(correlation matrix )的一些内容。如果你对此已经非常了解,可以直接跳过这一部分。

如果 X Y 是两个随机变量,with means (expected values) μX and μY and standard deviations σX and σY , respectively, then their covariance is

σXY=E[(XμX)(YμY)]

and correlation is:
ρXY=E[(XμX)(YμY)]/(σXσY)

因此 covXY=σXY=ρXYσXσY

如果 X are centred data matrices of dimension n×p ,an unbiased estimator of the covariance matrix (sample covariance matrix)

C=1n1XTX

另一方面,如果 the column means were known a-priori, 则有
C=1nXTX

最后,在MATLAB中计算covariance matrix 和 correlation matrix的方法可以参见【5】。

现在我们知道, C=XTX/(n1) 是一个对称矩阵,因此它可以对角化,即

C=VΛVT

其中, V is a matrix of eigenvectors (each column is an eigenvector) and Λ is a diagonal matrix with eigenvalues λi in the decreasing order on the diagonal。

Any matrix has a singular value decomposition, so we have

X=UΣVT

应该注意到
XTX=(UΣVT)T(UΣVT)=VΣTUTUΣVT=V(ΣTΣ)VT

这其实是特征值分解的结果,我们更进一步,把 C 引入,则有
C=1n1XTX=1n1V(ΣTΣ)VT=VΣ2n1VT

也就是说,Covariance matrix C 的特征值 λi 与 矩阵 X 的奇异值 σi 之间的关系是 σ2i=(n1)λi X 的右singular matrix V 中的列是与上述主成分相对应的主方向(principal directions)。最后,
XV=UΣVTV=UΣ

则表明, UΣ 就是主成分(PC)。

参考文献

【1】https://stats.stackexchange.com/questions/134282/relationship-between-svd-and-pca-how-to-use-svd-to-perform-pca
【2】https://intoli.com/blog/pca-and-svd/
【3】https://en.wikipedia.org/wiki/Estimation_of_covariance_matrices
【4】https://en.wikipedia.org/wiki/Covariance_and_correlation
【5】http://www.mathworks.com/help/stats/corrcov.html?s_tid=gn_loc_drop
【6】http://blog.csdn.net/baimafujinji/article/details/6474273
【7】http://blog.csdn.net/baimafujinji/article/details/79376378

  • 9
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

白马负金羁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值