数据降维(PCA算法在数据降维中的应用)

维度灾难

在实际问题中,我们常常会遇到采集到的数据特征数量过多的情况,甚至有时会出现训练集容量比特征数量还少的极端情况(在图片处理领域尤其常见),然而事实上,并不是采集到的每一个特征都对模型有训练意义。
维度的增加会导致相当棘手的情况出现,这通常会带来训练数据在高维空间的稀疏性质,为了获得在统计学上正确并且有可靠的结果,用来支撑这一结果所需要的数据量通常随着维数的提高而呈指数级增长。
此外,维度的增加会使模型训练的时间增加到无法忍耐的程度。
对于这样的问题,对数据进行降维将是很重要的一个手段。

主成分分析法

有时候,我们会发现描述某些数据并不需要过多的特征。换句话说,使用为数不多的几个特殊特征就能将某个点确定下来。
在所有的特征中,有些特征是强力的,它体现在似乎其他特征都或多或少依赖于这个特征。而有些特征是很弱的,体现在该特征似乎对每一个样本都没有什么区分度,这意味着大量数据集中在一簇或几个簇。
举一个例子,对于一个合法公民来说,身份证号是一个“强”的特征,因为它区分度足够强,能够将数据分散成不同的簇。而身高是一个“没那么强”的特征,因为大量样本会在某个范围内聚簇。
同时我们注意到,如果我们有了几个足够强的特征,也许我们不需要那么多弱特征来对数据进行区分或者识别了。
主成分分析法(Principal components analysis,以下简称PCA)是一个来给数据进行降维相当常用的手段。

算法流程

输入:样本集 X = X n ( m ) X=X^{(m)}_n X=Xn(m)规模 ( m × n ) (m\times n) (m×n),需要将数据从 n n n维降到 d d d维。

输出:降维后的样本集 X ′ X^{'} X

  1. 对所有的样本中心化(使其无偏): X j = X j − 1 m ∑ i = 1 m X j ( i ) X_j=X_j−\frac{1}{m}\sum_{i=1}^m{X^{(i)}_j} Xj=Xjm1i=1
  • 5
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值