降维 php,线性降维方法 - 百度开发者中心的个人空间 - OSCHINA - 中文开源技术交流社区...

本文作者:HelloDeveloper

很多人说,看了再多的文章,可是没有人手把手地教授,还是很难真正地入门AI。为了将AI知识体系以最简单的方式呈现给你,从这个星期开始,芯君邀请AI专业人士开设“周末学习课堂”——每周就AI学习中的一个重点问题进行深度分析,课程会分为理论篇和代码篇,理论与实操,一个都不能少!

读芯术,一个专注年轻人的AI学习与发展平台(ID:AI_Discovery)。

来,退出让你废寝忘食的游戏页面,取消只有胡吃海塞的周末聚会吧。未来你与同龄人的差异,也许就从每周末的这堂AI课开启了!全文共2698字,预计学习时长6分钟。

f32dfa8c5153bce6a65c86b3d755e4a9.png

周末好啊各位同学,我们又见面了。

科幻名著《三体》里有句犀利的台词——降低维度用于攻击。不过,这个“降维”绝对不只是科幻界的专用名词。

在机器学习中,你同样得了解它。

很多初学者往往会把降维(Dimensionality reduction),特征选择(feature selection),以及特征提取(feature extraction)混为一谈,因为这三者都削减了进入模型的变量个数。

但降维是一个更为宽泛的概念,它包括了特征选择和特征提取。

虽然降维过后,最终使用的变量个数减少了,但特征选择挑选的是特征子集,也就是说,保留下来的所有特征都在原来的特征集中可以找到;而特征提取所提取的是不再是特征子集,而是原来特征的线性(或者非线性)组合,我们经过特征提取后的变量都是新的变量,它的本质是将原始高维空间向低维空间投影,我们所使用的特征不仅少了,而且不再是原来的特征。

距离是机器学习中的一个很重要的概念。每个样本可以表示为一个向量,也就是高维空间的一个点,距离可以用来衡量样本之间的相似度。但是在高维空间,距离的计算会变得非常困难,而我们关心的问题可能在低维空间就会得到很好的解决。但这不意味着低维空间只是对高维空间的近似,有些问题中,高维空间会增加很多噪声,而在低维空间中会得到比高维空间更好的性能。

在上周《如何进行特征选择(理论篇)》的学习中,相信大家已经对特征选择有了足够的认识,所以本文的“降维”特指特征提取。

对于降维有两种分类方式:其一,根据目标值(target)的参与与否,分为有监督降维和无监督降维;其二,根据高维空间与低维空间的关系,分为线性降维和非线性降维。

我们对每种方法分举一例:

5de44dadf9c7671a87137d8e27d04537.png

主成分分析(PCA)

数学准备:

1.协方差矩阵:随机变量组成的向量,每组随机变量的协方差构成的一个对称矩阵,其对角元是每组随机变量的方差

2.矩阵的对角化:对于矩阵M,有可逆矩阵V,使得

3f345bb2e41273fe6e133cdbb1d4b6d1.png成为对角矩阵,而M的特征值对应的特征向量组成了该可逆矩阵V。(换而言之,矩阵V的每一列对应着M的特征向量)

3.正交矩阵:转置矩阵等于其逆矩阵(

19e7082a425d6328bf79567b1b13aabd.png),构成矩阵的列向量彼此正交。

4.数据中心化:对每组随机变量减去均值,再除以标准差。本质是将每组随机变量变为标准的高斯分布。

PCA(Principal component analysis)是用投影的方法将高维空间压缩到低维。

想象一下,此时你站在路灯下面,你本身是三维的(此时此刻除去了时间维度),你的影子却在一个二维平面上。

294e5a1ab62f9ebfadccae2847f5305c.png

如图,我们将二维空间的点投影到一条直线上。

但是,我们有无数个投影的方向,就像上图我们可以找出无数条直线来进行投影,那么哪条直线,哪个方向才是最好的呢?PCA的目标就是,找一条直线,使得投影之后的点尽可能的远离彼此,因为点之间的互相远离而不是相互重叠,就意味着某些距离信息被保留了下来。

在高维空间(维数D)的所有的样本可以被表示为一个向量:

1eb4906c2946bfb35809aebd314f97d9.png

在投影之后的低维空间(维数d),样本也是一个向量:

ebfa4c68ae63667de74765f8b73252e1.png

向量的变化可以通过一个矩阵联系起来,这个矩阵我们把它叫做投影矩阵,它的作用是将一个高维向量投影到低维空间得出一个低维向量:

ce725525dd0d63bc0fa085185bdf2200.png

此时,中心化数据的优势就体现了出来,因为经过中心化的数据,

b45b33cf5af77fad5a1ff6cd0d759883.png,这就意味着数据的协方差矩阵就成了

52427967e2023c02b805b9c75cf24232.png,投影之后的协方差矩阵就成为了

c68f262f295a84cbf4599137678c033d.png,我们的目标是使其方差最大,而协方差矩阵的对角元正是方差,所以我们只需要对其求迹:

56cb6a1f9bc63bcff827c918e0df20de.png

换而言之,我们需要找的投影矩阵W其实是一个使

898e7e0f938bc715f6db67203d609ec8.png对角化的可逆矩阵,而它的转置等于它的逆

4e5fb5bfedf2fcbd3ea46df456a090ce.png。所以我们寻找W的过程,就是寻找

c459ea727770be8cb139db03f7bebf3b.png的特征向量的过程,而方差最大化的过程,也就是寻找

64ffbbc9cd19a3e0fa872a812c2cdcd5.png最大特征值的过程。

所以,我们只需要对

e7a980774339e50f49588c837ddab0c1.png做特征值分解,将其特征值排序,取到前面的d个特征向量,彼此正交,构成了投影矩阵W,而它们所张成的低维空间,就是使得投影点方差最大的低维空间。

40860b8da3cd9f3dae4150fd52248c9d.png

如图,这是对一个二元高斯分布用PCA进行降维后的结果,这个平面就是由两个最大的特征值对应的特征向量所张成,可以看出,特征向量彼此正交,且首先找到的是最大的特征值对应的特征向量,逐步寻找第二个,第三个.....如果我们的目标空间是n维,就会取到前n个。

线性判别分析(LDA)

数学准备:

1.均值向量:由多组随机变量组成的向量,对每一组随机变量取均值所构成的向量。

2.厄米矩阵(Hermitan ):转置等于其本身的矩阵,

6747f65b79b56c478bb985103dd16527.png

3.广义瑞利熵(Rayleigh quotient):若x为非零向量,则

b6513a98868f281c15400d2201957db5.png为A,B的广义瑞利熵,它的最大值是

7192ffe4a0517e9ccedef7a9cfb72e88.png的最大特征值。

4.矩阵的奇异值分解:任何实矩阵M都可以被分解成为

88c85f38627e10184e96de094ef5f7da.png这三个矩阵的乘积。U和V均为正交矩阵。U的列向量是

d600b973e0b0d2f4b392a8ac637c1227.png的特征向量,V的列向量是

508778d7feadc05df636aeb7497b2a97.png的特征向量,同时奇异值的大小

698548c1b98631ae8263334bb5141a4b.png是的特征值的平方根。

LDA(Linear Discriminant Analysis)的基本思想也是将高维空间的样本投影到低维空间,使信息损失最少。

与PCA不同在于,PCA只针对样本矩阵,希望投影到低维空间之后,样本投影点的方差最大;但LDA不仅针对样本矩阵,还使用了类别信息,它希望投影到低维空间后,相同样本的方差最小(相同样本的集中化),不同样本的距离最大(不同样本离散化)。

3696b28583720193416cc9517029b798.png

如图所示,将二维空间投影到一维空间,即一条直线上。图2相比图1,类间样本距离更大,类内样本方差更小。

以二分类问题为例,我们用

56fc9fe96c57456f2eff623a593365d4.png表示两类样本,用

7df863f563ccf991e1c41c6335db0d1a.png表示两类样本的均值向量,用

cfb1bb522d8bf9c4ca32e7f65203e79d.png来表示两类样本的协方差矩阵,与PCA一样,我们假设存在一个投影矩阵W,这些量会在低维空间变成:

92bf5c43c7a9a2c6b7e7737a0aab8285.png

其中

8d74f20a2e8d238f09cd5d9155b9c872.png分别为低维空间的样本,均值向量和协方差矩阵。在投影空间的相同样本的方差最小,意味着

5b7a35be5c4e52116774aa871ae96d19.png最小;而不同样本的距离最大,意味着

77df99927b3c3d549086a410a7d0c57f.png最大。

我们定义原始空间的样本协方差矩阵之和为

ee2ff81fe1c2f57880ba75481e512719.png,类内散度矩阵(whithin-class scatter matrix),用来刻画原始空间上相同样本的方差:

db81e8ca3eb7fc8003df676d52a3a7d1.png

同时定义类间散度矩阵(between-class scatter matrix)

b032c86b799f04e1938463aab3d00284.png,用来刻画原始空间上不同样本的距离:

dd65f56fc24a541a4c51992c1d322947.png

将以上的原则结合起来,我们的目的就变成了:

f34cc06df130ad653ccc483958583675.png

根据广义瑞利熵的形式,我们寻求最大值就变成了对

e025eb3e4dde8678eb5b4506928abb2e.png进行奇异值分解,然后选取最大的奇异值和相应的特征向量。这些特征向量所张成的低维空间,就是我们的目标空间。

读芯君开扒

课堂TIPS

• 降维在表示论中属于低维表示,本质是将原本空间压缩到更小的空间,在这个过程中保证信息损失的最小化。与之相对的是稀疏表示,它是将原本的空间嵌入到更大的空间,在这过程中保证信息损失的最小化。

• PCA有多种理解方式,除了在低维空间使得样本方差最大化,也可以理解为最小重构均方误差,将问题转化为所选低维空间重构的数据与实际数据的差。引入贝叶斯视角,还可以将PCA理解为最小化高斯先验误差。如果从流形的角度看,就是把数据看作一个拓扑空间的点集,在高斯概率空间内找到一个对应的线性流形。

• PCA和LDA的优化目标均可以用拉格朗日乘子法解决。PCA同样也可以通过奇异值分解来解决。奇异值分解方法可以理解为是特征值分解的推广,因为特征值分解要求矩阵为一个方阵,但奇异值分解并无此要求。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值