PCA与RPCA

PCA和RPCA是两种数据降维方法,主要区别在于PCA假设数据噪声小且服从高斯分布,而RPCA则假设噪声是稀疏且可能强烈。PCA通过最大化投影方差找到主成分,而RPCA用于处理含高幅度尖锐噪声的数据,通过低秩矩阵加稀疏噪声矩阵的分解来处理问题。两者在优化目标上有所不同,PCA寻找低秩和高斯噪声的组合,RPCA寻找低秩和稀疏噪声的组合。
摘要由CSDN通过智能技术生成

PCA与RPCA

PCA和RPCA从名字看是有一些相似性的,两者的区别在于对于误差的假设不同,PCA假设数据误差是服从高斯分布的,即数据噪声较小;RPCA假设数据噪声是稀疏的,并且可能是强的噪声;

一般推导主成分分析可以有两种方法:

  • 最近可重构性:样本点到超平面要尽可能近;
  • 最大可分性:样本点在这个超平面上的投影尽可能分开,即最大化投影方差;

下面基于最大化投影方差来回归该算法,首先,先回顾一下PCA操作的步骤:

  • 对样本数据进行中心化处理(这步操作比较重要,特别是对推导公式)
  • 求样本的协方差矩阵;
  • 对样本的协方差矩阵进行特征值分解,并通过前k个特征值对应的特征向量进行映射:

\[ \boldsymbol{x}_{i}^{\prime}=\left[\begin{array}{c}{\boldsymbol{\omega}_{1}^{\mathrm{T}} \boldsymbol{x}_{i}} \\ {\boldsymbol{\omega}_{2}^{\mathrm{T}} \boldsymbol{x}_{i}} \\ {\vdots} \\ {\boldsymbol{\omega}_{d}^{\mathrm{T}} \boldsymbol{x}_{i}}\end{array}\right] \]

最大方差推导:

假设原始的坐标为

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值