吴恩达机器学习笔记50-主成分分析算法(PCA Algorithm)

PCA 减少?维到?维步骤:
  

  第一步是均值归一化。我们需要计算出所有特征的均值,然后令 ?? = ?? − ??。如果特
征是在不同的数量级上,我们还需要将其除以标准差 ?2。

  第二步是计算协方差矩阵(covariance matrix)

(求和上面的n错了,应该是m)

  第三步是计算协方差矩阵?的特征向量(eigenvectors):在 Octave 里我们可以利用奇异值分解(singular value decomposition)来求解:

[U, S, V]= svd(sigma)。

对于一个 ? × ?维度的矩阵,上式中的?是一个具有与数据之间最小投射误差的方向向
量构成的矩阵。如果我们希望将数据从?维降至?维,我们只需要从?中选取前?个向量,获
得一个? × ?维度的矩阵,我们用???????表示,然后通过如下计算获得要求的新特征向量

其中?是? × 1维的,因此结果为? × 1维度。注,我们不对方差特征进行处理。

转载于:https://www.cnblogs.com/sl0309/p/10520681.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值