表示学习(Representation Learning)(二)——主成分分析、典型相关分析

主成分分析

1.概要

        主成分分析法由Karl Pearson 在 1903 提出,经由Harold Hotelling 在 20世纪三十年代从另一个角度进行了完善,是一种适用于高维数据,探索性数据分析的方法,作为最早一批被应用于模式识别、机器学习模型的算法之一,其现在经过实现数据压缩降维、特征提取而广泛应用于力学、信号处理、质量控制、心理学等许多领域。

2.算法思想

        简单一句话来说的话:找到一组组正交化的投影(一次线性变化-linear transformation),使得原空间的数据在新的投影空间中的数据方差最大,也即尽可能使投影结果分散。而如何去找到这样的一个线性变化呢? 这时候不得不说数学家们的想法是真的难以想象。

假设有这样一组n个样本的数据,每个样本有d个特征X ={ x_1{},x_2{},x_3{}...x_n{}},我们对数据样本进行中心化(Data centralisation) 

 x_n{}-m, n=1,2,3...n        其中m为所有样本的中心。

接着为了找到第一主成分的投影 u 使得该投影空间下数据的方差最大,

z=(x_n{}-m)^T{}u,则样本空间的方差D可以表示为:

D(z)=\frac{1}{N-1}\sum_{n=1}^n{} (z_n{}-m)^2{}

此处m为新样本的中心,由于原数据进行了中心化,易得:

m=\frac{1}{N}\sum_{n=1}^N{} z_n{}=0

D(z)=\frac{1}{N-1}\sum_{n=1}^n{} z_n{}^2 =\frac{1}{N-1}\sum_{n=1}^n{} z_n{}^T{}z_n{}= \frac{1}{N-1}\sum_{n=1}^n{} ((x_n{}-m)^Tu)^T{}((x_n{}-m)^Tu)=u^T(\frac{1}{N-1}\sum_{n=1}^n(x_n{}-m)(x_n{}-m)^T)u=u^TSu

 其中不难S=\frac{1}{N-1}\sum_{n=1}^n(x_n{}-m)(x_n{}-m)^T发现为原空间数据X的斜方差矩阵,这里使得投影向量的长度\left | \left | x \right | \right | = \sqrt{u^Tu}=1.问题变转化成了求函数:

f(u;X)=u^TSu

求最值问题。 接着借助拉格朗日乘子法我们可以将上述函数转化成如下形式:

L(u,\lambda ;X)=u^TSu+\lambda(1-u^Tu)

对u求偏导易得:

2Su − 2λu = 0 也即Su= λu

这时我们

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值