数据科学 12 连续变量关系探索与变量压缩(概念)

主要内容:

  • 多元统计基础与变量约减的思路
  • 主成分分析
  • 因子分析
  • 稀疏主成分分析
  • 变量聚类

12.1 多元统计基础与变量约减的思路

目标:

  • 使用散点图来查看两个连续变量间的关系。
  • 使用相关性统计来量化两个连续变量的相关性。
  • 描述一下错误使用相关系数的可能情形。
  • 使用相关(Correlations)任务获得皮尔森相关系数。

12.1.1 简单相关分析

三个连续变量-短信量、微信和Web登陆

  • 函数关系, 即当一个或多个变量的数值确定以后, 另一个变量的数值按照某种关系也随之被确定;
  • 相关关系, 即变量之间不存在确定的函数关系, 只是存在某种非确定性的联系, 这种依赖关系我们将用相关分析来研究。

简单相关分析是研究两个变量之间相关关系的方法。 按照变量性质的不同, 所采用的相关分析方法也不同。 对于连续变量, 通常使用Pearson相关系数来描述变量间的相关关系;对于有序变量, 则常使用Spearman相关系数
在这里插入图片描述

两个变量之间的相关关系也可以通过散点图来进行直观描述:

12.2 主成分分析

12.2.1 主成分分析的思路

  • 主成分分析的目的是构造输入变量的少数线形组合,尽量能解释数据的变异性。这些线形组合被称为主成分,它们形成的降维数据可用于进一步分析。
  • 第一个主成分由图中比较长的直线代表,在这个方向上能够最多地解释数据的变异性,即方差最大;
  • 第二个主成分由图中比较短的直线代表,与第一个主成分正交,能够最多的解释数据中剩余的变异性;
  • 一般而言,每个主成分都需要与之前的主成分正交,并且能够最多的解释数据中剩余的变异性。

12.2.2 三维变量之间的关系

三维空间上的相关连续变量呈椭球状分布。只有这样的分布才可以做主成分分析。如果呈球形分布,这说明变量间没有相关关系,没有必要做主成分分析,也不能做变量的压缩。

1、提取第一个主成分

首先找到这个空间椭球的最长轴,即数据变异最大的轴,第一特征根=1.94

2、提取第二个主成分

在所有与第一特征根垂直的方向上,找到第二个最长的轴;第一特征根=1.94,第二特征根=1.02

12.2.3、公式化表述

A、主成分建模
X ′ = ( X 1 , X 2 , ⋯   , X p X'=(X_1, X_2, \cdots , X_p X=(X1,X2,,Xp表示随机向量,它的方差-协方差矩阵为 Σ \Sigma Σ

Z 1 = a 1 ′ X = a 11 X 1 + a 12 X 2 + ⋯ + a 1 p X p Z 2 = a 2 ′ X = a 21 X 1 + a 22 X 2 + ⋯ + a 2 p X p ⋮ Z p = a p ′ X = a p 1 X 1 + a p 2 X 2 + ⋯ + a p p X p \begin{aligned} &\begin{array}{l} Z_{1}=a_{1}' X=a_{11} X_{1}+a_{12} X_{2}+\cdots+a_{1 p} X_{p} \\ Z_{2}=a_{2}' X=a_{21} X_{1}+a_{22} X_{2}+\cdots+a_{2 p} X_{p} \\ \vdots \\ Z_{p}=a_{p}' X=a_{p 1} X_{1}+a_{p 2} X_{2}+\cdots+a_{p p} X_{p} \end{array} \end{aligned} Z1=a1X=a11X1+a12X2++a1pXpZ2=a2X=a21X1+a22X2++a2pXpZp=apX=ap1X1+ap2X2++appXp

则Z的方差为: Var ⁡ ( Z i ) = a i ′ Σ a i \operatorname{Var}\left(Z_{i}\right)=a_{i} '\Sigma a_{i} Var(Zi)=aiΣai
Z 1 , Z 2 , … , Z p Z_{1}, Z_{2}, \dots, Z_{p} Z1,Z2,,Zp就是需要寻找的主成分,我们要求每个主成分两两之间是正交的。

  • 有多少个变量就会有多少个正交的主成分;
  • 主成分的变异(方差)之和等于原始变量的所有变异;
  • 前若干个主成分的变异(方差)解释了绝大多数的变异(方差);
  • 如果原始变量不相关,即没有协方差,则不需要做主成分。

B、特征值与特征向量
∣ λ I − Σ ∣ = 0 |\lambda I-\Sigma|=0 λIΣ=0为特征根方程,对其求解,得到特征根,按大小排序, λ 1 > λ 2 > … , > λ p \lambda_{1}>\lambda_{2}>\ldots,>\lambda_{p} λ1>λ2>,>λp e 1 , e 2 , … , e p e_{1}, e_{2}, \ldots, e_{p} e1,e2,,ep是分别属于他们的特征向量,特征向量线性无关。这样的变换在线性代数中称为线性变化。
Σ \Sigma Σ进行上述正交分解,便得到这样的 ( λ 1 , e 1 ) , ( λ 2 , e 2 ) , … ( λ p , e p ) \left(\lambda_{1},e_{1}\right),\left(\lambda_{2}, e_{2}\right), \ldots\left(\lambda_{p}, e_{p}\right) (λ1,e1),(λ2,e2),(λp,ep)这样的特征根-特征向量对。
则第i主成分为:
Z i = e i ′ X = e i 1 X 1 + e i 2 X 2 + ⋯ e i p X p , i = 1 , 2 , … , p Z_{i}=e_{i}' X=e_{i 1} X_{1}+e_{i 2} X_{2}+\cdots e_{i p} X_{p}, i=1,2, \dots, p Zi=eiX=ei1X1+ei2X2+eipXp,i=1,2,,p
主成分的方差-协方差为:
Var ⁡ ( Z i ) = e i ′ Σ e i = λ i , i = 1 , 2 , … , p Cov ⁡ ( Z i , Z k ) = e i ′ Σ e k = 0 , i ≠ k \begin{aligned} &\operatorname{Var}\left(Z_{i}\right)=e_{i}' \Sigma e_{i}=\lambda_{i}, i=1,2, \dots, p\\ &\operatorname{Cov}\left(Z_{i}, Z_{k}\right)=e_{i}' \Sigma{\mathcal{e}_{k}}=0, \quad i \neq k \end{aligned} Var(Zi)=eiΣei=λi,i=1,2,,pCov(Zi,Zk)=eiΣek=0,i=k
C、主成分的个数选取
σ 1 , σ 2 , … , σ p \sigma_{1}, \sigma_{2}, \ldots, \sigma_{p} σ1,σ2,,σp表示原始变量的方差序列,它们之和等于主成分之和。他们之间的区别在于主成分是从大到小排序的。
σ 11 + σ 22 + ⋯ σ m = ∑ i = 1 p Var ⁡ ( X i ) = λ 1 + λ 2 + ⋯ λ p = ∑ i = 1 p Var ⁡ ( Z i ) \sigma_{11}+\sigma_{22}+\cdots \sigma_{m}=\sum_{i=1}^{p} \operatorname{Var}\left(X_{i}\right)=\lambda_{1}+\lambda_{2}+\cdots \lambda_{p}=\sum_{i=1}^{p} \operatorname{Var}\left(Z_{i}\right) σ11+σ22+σm=i=1pVar(Xi)=λ1+λ2+λp=i=1pVar(Zi)
每个主成分解释的变异为: λ k λ 1 + λ 2 + ⋯ λ p \frac{\lambda_{k}}{\lambda_{1}+\lambda_{2}+\cdots \lambda_{p}} λ1+λ2+λpλk
原始变量单位不一致情况下,原始变量需要进行学生标准化,则所有原始变量的方差为1。

主成分个数的选取原则:

  • 单个主成分解释的变异不应该小于1,比如选取3个主成分,第3个主成分解释的变异相当于一个原始变量的变异;
  • 选取主成分累积的解释变异达到80%-90%。

12.2.4 基于相关系数矩阵的主成分分析

因为主成分是通过最大化线性组合的方差来得到的,所以它对变量的测量尺度非常敏感。

在实际应用中,通常首先将各输入变量进行标准化,使每个变量的均值为0,方差为1,这等价于 使用相关系数矩阵R替代协方差矩阵 Σ \Sigma Σ来进行主成分分析。

12.2.5 主成分的解释

我们可以从两个方面来解释所得的第i个主成分:

  • 考察第i个主成分对应的系数(即 e i 1 , ⋯   , e i p e_{i 1}, \cdots, e_{i p} ei1,,eip),根据系数绝对值较大的输入变量来解释第i个主成分。值得注意的是,系数的正负本身没有意义 ,这是因为 Σ \Sigma ΣR的任意特征向量e取负之后仍然是特征向量。但是 ,系数之间的正负对比是有意义的。
  • 计算第i个主成分与各输入变量的相关系数,根据那些对应相关系数的绝对值较大的输入变量来解释第i个主成分。

12.2.6 主成分分析的三种运用场景

1、做一个综合打分:这种情况在日常中经常遇到,比如高考成绩的加总、员工绩效的总和排名。这类情况要求只出一个综合打分,因此主成分分析比较适合。相对于讲单项成绩简单加总的方法,主成分分析会赋予区分度高的单项成绩以更高的权重,分值更合理。不过当主成分分析不支持取一个主成分时,就不能使用该方法了。

2、对数据进行描述:描述产品情况,比如著名的波士顿矩阵,子公司业务发展状况,区域投资潜力等,需要将多变量压缩到少数几个主成分进行描述,如果压缩到两个主成分是最理想的。这类分析一般做主成分分析是不充分的,做到因子分析更好。

3、为聚类或回归等分析提供变量压缩:消除数据分析中的共线性问题,消除共线性常用的有三种方法,分别是: 1)同类变量中保留一个最有代表性的; 2)保留主成分或因子; 3)从业务理解上进行变量修改。这主成分是三种方法的基础。
总结:
仅提取变量的主要信息,无法完成维度分析的功能。像“CITIES_10”这样变量本身就具有很好的分类表现的数据是很少见的。完成变量聚类的主要方法下面介绍的因子分析。

主要用途: 1、对个体的情况或表现进行打分; 2、一种简单省力的综合信息的手段,降低变量之间的关系,作为预测类模型的输入变量。

12.3 因子分析

12.3.1 因子分析的思路

继续主成分分析的思路,就象之前例子中呈现的那样,一般得到的主成分中,第一个主成分是综合指标,第二个主成分是调和指标。下图是以每个变量在这两个主成分上的权重作的散点图。
在这里插入图片描述

如果可以将主成分的坐标轴进行旋转,使得一些变量的权重的绝对值在一个主成分上达到最大,而在其他主成分上绝对值最小,这样就达到了变量分类的目的。变量旋转分为正交和非正交两种,一般使用前者。
在这里插入图片描述

12.3.2 公式化表述

1、正交因子模型
  • 假设 X = ( X 1 , ⋯   , X p ) T \mathbf{X}=\left(X_{1}, \cdots, X_{p}\right)^T X=(X1,,Xp)T是一个p维随机向量。
  • X的均值向量为 μ = ( μ 1 , ⋯   , μ p ) ⊤ \boldsymbol{\mu}=\left(\mu_{1}, \cdots, \mu_{p}\right)^{\top} μ=(μ1,,μp)
  • X的协方差矩阵为 Σ \Sigma Σ,其对角线上的值 δ k 2 \delta_k^2 δk2给出了 X k X_k Xk的方差 ( k = 1 , ⋯   , p ) (k=1, \cdots, p) (k=1,,p)
  • F 1 , ⋯   , F q ( q ≤ p ) F_{1}, \cdots, F_{q}(q \leq p) F1,,Fq(qp)表示q个公共因子。
  • ε 1 , ⋯   , ε p \varepsilon_{1}, \cdots, \varepsilon_{p} ε1,,εp表示特殊因子 。
    X 1 − μ 1 = l 11 F 1 + l 12 F 2 + ⋯ + l 1 q F q + ε 1 X 2 − μ 2 = l 21 F 1 + l 22 F 2 + ⋯ + l 2 q F q + ε 2 ⋯ ⋯ X p − μ p = l p 1 F 1 + l p 2 F 2 + ⋯ + l p q F q + ε p \begin{aligned} &X_{1}-\mu_{1}=l_{11} F_{1}+l_{12} F_{2}+\cdots+l_{1 q} F_{q}+\varepsilon_{1}\\ &\begin{aligned} X_{2}-\mu_{2}=& l_{21} F_{1}+l_{22} F_{2}+\cdots+l_{2 q} F_{q}+\varepsilon_{2} \\ & \cdots \quad \cdots \\ X_{p}-\mu_{p}=& l_{p 1} F_{1}+l_{p 2} F_{2}+\cdots+l_{p q} F_{q}+\varepsilon_{p} \end{aligned} \end{aligned} X1μ1=l11F1+l12F2++l1qFq+ε1X2μ2=Xpμp=l21F1+l22F2++l2qFq+ε2lp1F1+lp2F2++lpqFq+εp
    写成矩阵的形式是: X − μ = L F + ε \mathbf{X}-\boldsymbol{\mu}=\mathbf{L} \mathbf{F}+\boldsymbol{\varepsilon} Xμ=LF+ε,其中:
    • F = ( F 1 , ⋯   , F q ) ⊤ \mathbf{F}=\left(F_{1}, \cdots, F_{q}\right)^{\top} F=(F1,,Fq)是q维随机向量;
    • ε = ( ε 1 , ⋯   , ε p ) ⊤ \boldsymbol{\varepsilon}=\left(\varepsilon_{1}, \cdots, \varepsilon_{p}\right)^{\top} ε=(ε1,,εp)是p维随机向量;
    • L称为因子载荷矩阵,其第k行第i列的值 I k i I_{ki} Iki表示 X k X_k Xk在因子 F i F_i Fi上的载荷。
2、估计方法

因子载荷矩阵的估计是因子分析的主要问题之一。令 Ψ \Psi Ψ表示对角元素 为 ψ k \psi_k ψk的p维对角矩阵。将前面的结论1和结论2写成矩阵形式可以得出: Σ = L L ⊤ + Ψ \Sigma=L L^{\top}+\Psi Σ=LL+Ψ

  • L L ⊤ LL^{\top} LL Σ \Sigma Σ中能被公共因子解释的部分;
  • Ψ \Psi Ψ Σ \Sigma Σ中不能被公共因子解释而归结于特殊因子的部分。
  • 注意,尽管开始 Ψ \Psi Ψ被定义为一个对角矩阵,但实际上却不一定能够找到一个对角矩阵正好满足上式。
3、主成分法
  • λ 1 ≥ λ 2 ≥ ⋯ ≥ λ p \lambda_{1} \geq \lambda_{2} \geq \cdots \geq \lambda_{p} λ1λ2λp表示 Σ \Sigma Σ的特征值, e 1 , ⋯   , e p \mathbf{e}_{1}, \cdots, \mathbf{e}_{p} e1,,ep表示对应的特征向量。统计理论证明 Σ \Sigma Σ可以拆分为 Σ = λ 1 e 1 e 1 ⊤ + λ 2 e 2 e 2 ⊤ + ⋯ + λ p e p e p ⊤ \boldsymbol{\Sigma}=\lambda_{1} \mathbf{e}_{1} \mathbf{e}_{1}^{\top}+\lambda_{2} \mathbf{e}_{2} \mathbf{e}_{2}^{\top}+\cdots+\lambda_{p} \mathbf{e}_{p} \mathbf{e}_{p}^{\top} Σ=λ1e1e1+λ2e2e2++λpepep
  • 对任意 i = 1 , ⋯   , q i=1, \cdots, q i=1,,q,令因子载荷矩阵 L ~ \tilde{\mathbf{L}} L~的第i列为 λ i e i \sqrt{\lambda_{i}} \mathbf{e}_{i} λi ei,那么 L ~ L ~ ⊤ = λ 1 e 1 e 1 ⊤ + λ 2 e 2 e 2 ⊤ + ⋯ + λ q e q e q ⊤ \tilde{\mathbf{L}} \tilde{\mathbf{L}}^{\top}=\lambda_{1} \mathbf{e}_{1} \mathbf{e}_{1}^{\top}+\lambda_{2} \mathbf{e}_{2} \mathbf{e}_{2}^{\top}+\cdots+\lambda_{q} \mathbf{e}_{q} \mathbf{e}_{q}^{\top} L~L~=λ1e1e1+λ2e2e2++λqeqeq
  • 对任意 1 ≤ k ≤ p 1 \leq k \leq p 1kp,令 Ψ ~ k = σ k 2 − ∑ i = 1 q l ~ k i 2 \tilde{\Psi}_{k}=\sigma_{k}^{2}-\sum_{i=1}^{q} \tilde{l}_{k i}^{2} Ψ~k=σk2i=1ql~ki2,令 Ψ ~ \tilde{\Psi} Ψ~为对角元素为 ψ k \psi_{k} ψk的p维对角矩阵。
  • L ~ \tilde{L} L~ Ψ ~ \tilde{\Psi} Ψ~就是L Ψ {\Psi} Ψ的估计值。
4、最大方差旋转(varimax rotation)

应用最广泛的因子旋转方法:

  • 它是一种正交旋转;
  • 目的是使载荷平方的方差最大化,即最大化 ∑ k = 1 p ∑ i = 1 q ( l k i 2 − 1 p q ∑ k ′ = 1 p ∑ i ′ = 1 q l k ′ i ′ 2 ) 2 \sum_{k=1}^{p} \sum_{i=1}^{q}\left(l_{k i}^{2}-\frac{1}{p q} \sum_{k^{\prime}=1}^{p} \sum_{i^{\prime}=1}^{q} l_{k^{\prime} i^{\prime}}^{2}\right)^{2} k=1pi=1q(lki2pq1k=1pi=1qlki2)2

总结
1、因子分析是主成分方法的拓展,可以很好地满足维度分析的需求;
2、对于没有业务经验的数据分析人员来讲,是通过观察每个原始变量在因子上的权重绝对值来给因子取名称的。而对于业务知识丰富的数据分析人员,已经对变量的分类有一个预判,并通过进行不同的变量转换(标准化)方式和旋转方式使得预判别为同一组的原始变量在共同的因子上权重绝对值最大化。所以因子分析的要点在于选择变量转换方式。
3、因子分析作为维度分析的手段,是构造合理的聚类模型和稳健的分类模型的必然步骤。在这方面,主成分分析、脊回归、LASSO算法回归只是在建模时间紧张和缺乏业务经验情况下的替代办法。

12.4 稀疏主成分分析

目标函数
( U ∗ , V ∗ ) = arg ⁡ min ⁡ U , V 1 2 ∥ X − U V ∥ 2 2 + α ∥ V ∥ 1 \left(U^{*}, V^{*}\right)=\underset{U, V}{\arg \min } \frac{1}{2}\|X-U V\|_{2}^{2}+\alpha\|V\|_{1} (U,V)=U,Vargmin21XUV22+αV1
subject to ∥ U k ∥ 2 = 1 \left\|U_{k}\right\|_{2}=1 Uk2=1 for all 0 ≤ k < n components  0 \leq k<n_{\text {components }} 0k<ncomponents 
X-原始数据,NP
U-主成分,N
R
V-权重矩阵,P*R
α \alpha α是惩罚系数,取值越小,则越接近普通的主成分分析 ;取值越大,权重矩阵中的0
值越多。

12.5 变量聚类

12.5.1 变量聚类思路

12.5.2 对每组组内的代表性:

12.5.3 借助稀疏主成分分析实现变量聚类

步骤一:进行SparsePCA计算,选择合适的惩罚项alpha,当恰巧每个原始变量只在一个主成分上有权重时,停止循环

步骤二、 根据上一步得到的惩罚项的取值,估计SparsePCA,并得到稀疏主成分得分

步骤三:每个主成分中,选出原始变量的1-R方比值最小的。

步骤四:在原始数据中,选取被筛选出的变量。

12.5.4 为回归分析提供变量压缩

计划使用” CREDITCARD_EXP”数据,通过线形回归构造客户价值预测模型,但是发现解释变量之间具有强相关性。使用这样的数据进行构造的预测模型稳健型差,需要事先进行处理。这里考虑使用主成分分析的方法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

irober

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值