数学建模|多元分析(二)

判别分析

判别问题用统计的语言来表达,就是已有 q q q个总体 X 1 , X 2 , ⋅ ⋅ ⋅ , X q X_1,X_2,···,X_q X1,X2,,Xq,它们的分布函数分别为 F 1 ( x ) , F 2 ( x ) , ⋅ ⋅ ⋅ , F q ( x ) F_1(x),F_2(x),···,F_q(x) F1(x),F2(x),,Fq(x),每个 F i ( x ) F_i(x) Fi(x)都是 p p p维函数。对于给定的样本 X X X,要判断它来自哪一个总体。当然,应该要求判别准则在某种意义下是优的,例如错判的概率小或错判的损失小等。我们仅介绍基本的几种判别方法,即距离判别,Bayes判别和Fisher判别。

距离判别

Mahalanobis 距离的概念

通常我们定义的距离是Euclid距离(欧式距离),但是在统计分析里就不适用了。

在这里插入图片描述

Mahalanobis 距离(马氏距离)的定义

在这里插入图片描述

距离判别的判别准则

在这里讨论两个总体的距离判别,分协方差相同和协方差不同两种进行讨论。

在这里插入图片描述

两总体距离的判别函数

在这里插入图片描述

待测样本的判别函数与判别准则

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

Fisher判别

Fisher判别的基本思想就是投影,将表面不易分类的数据通过投影到某个方向上使得投影类与类之间得以分离的一种判别方法。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

当总体的参数未知时,我们用样本对 μ 1 , μ 2 \mu_{1} ,\mu _{2} μ1,μ2 Σ \Sigma Σ进行估计,注意到这里的 Fisher 判别与距离判别一样,不需要知道总体的分布类型,但两总体的均值向量必须有显著的差 异才行,否则判别无意义。

Bayes判别

Bayes判别和Bayes估计的思想方法是一样的,即假定对研究的对象已经有一定的认识,这种认识常用先验概率来描述,当我们取得一个样本后,就可以用样本来修正已有的先验概率分布,得出后验概率分布,再通过后验概率分布进行各种统计推断。

误判概率与误判损失

设有两个总体 X 1 X_1 X1 X 2 X_2 X2,根据某一个判别规则,将实际上为 X 1 X_1 X1的个体判为 X 2 X_2 X2 或者将实际上为 X 2 X_2 X2的个体判为 X 1 X_1 X1的概率就是误判概率,一个好的判别规则应该使误判概率最小。除此之外还有一个误判损失问题或者说误判产生的花费(Cost)问题,如把 X 1 X_1 X1的个体误判到 X 2 X_2 X2 的损失比 X 2 X_2 X2的个体误判到 X 1 X_1 X1严重得多,则人们在作前一种判断时就要特别谨慎。譬如在药品检验中把有毒的样品判为无毒后果比无毒样品判为有毒严重得多,因此一个好的判别规则还必须使误判损失最小。

在这里插入图片描述

总体的Bayes判别

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

建立 Anderson 线性判别函数

在这里插入图片描述

在这里插入图片描述

Matlab解决
clc,clear
a=[24.8 24.1 26.6 23.5 25.5 27.4
-2.0 -2.4 -3.0 -1.9 -2.1 -3.1]';
b=[22.1 21.6 22.0 22.8 22.7 21.5 22.1 21.4
-0.7 -1.4 -0.8 -1.6 -1.5 -1.0 -1.2 -1.3]';
n1=6;n2=8;
mu1=mean(a);mu2=mean(b);
mu1=mu1',mu2=mu2'
s1=(n1-1)*cov(a),s2=(n2-1)*cov(b)
sigma2=(s1+s2)/(n1+n2-2)
beta=log(8/6)
syms x1 x2
x=[x1;x2];
wx=(x-0.5*(mu1+mu2)).'*inv(sigma2)*(mu1-mu2);
digits(6),wx=vpa(wx)
ahat=subs(wx,{x1,x2},{a(:,1),a(:,2)})
bhat=subs(wx,{x1,x2},{b(:,1),b(:,2)})

以下是Σ1 ≠ Σ2 情形下的 MATLAB 程序:
clc,clear
p1=6/14;p2=8/14;
a=[24.8 24.1 26.6 23.5 25.5 27.4
-2.0 -2.4 -3.0 -1.9 -2.1 -3.1]';
b=[22.1 21.6 22.0 22.8 22.7 21.5 22.1 21.4
-0.7 -1.4 -0.8 -1.6 -1.5 -1.0 -1.2 -1.3]'; 
n1=6;n2=8;
mu1=mean(a);mu2=mean(b);
mu1=mu1',mu2=mu2'
cov1=cov(a),cov2=cov(b)
k=log(p2/p1)+0.5*log(det(cov1)/det(cov2))+0.5*(mu1'*inv(cov1)*mu1-mu2'*inv(
cov2)*mu2)
syms x1 x2
x=[x1;x2];
wx=-0.5*x.'*(inv(cov1)-inv(cov2))*x+(mu1'*inv(cov1)-mu2'*inv(cov2))*x;
digits(6),wx=vpa(wx);
wx=simple(wx)
ahat=subs(wx,{x1,x2},{a(:,1),a(:,2)})
bhat=subs(wx,{x1,x2},{b(:,1),b(:,2)})
ahat>=k,bhat<k 

典型相关分析

通常情况下,为了研究两组变量:

在这里插入图片描述

的相关关系,可以用最原始的方法,分别计算两组变量之间的全部相关系数,一共有p × q p\times qp×q个简单相关系数,这样又烦琐又不能抓住问题的本质。如果能够采用类似于主成分的思想,分别找出两组变量的各自的某个线性组合,讨论线性组合之间的相关关系,则更简捷。

因此,典型相关分析是分析两组变量之间的相关性的一种统计方法,它包含了简单的Pearson相关分析(两组均只含一个变量)和复相关(一组只含一个变量,另一个组含多个变量)这两种特殊情况。

典型相关分析的基本思想和主成分分析的基本思想相似,它将一组变量与另一组变量之间单变量的多重线性相关性研究,转换为少数几对综合变量之间的简单线性相关性的研究,并且这少数几对变量所包含的线性相关性的信息几乎覆盖了原变量组所包含的全部相应信息。

基本思想

假设所研究的两组变量为X组和Y组,其中X组有p个变量

X = ( x 1 , x 2 , ⋅ ⋅ ⋅ , x p ) X=(x_1,x_2,···,x_p) X=(x1,x2,,xp)

Y组有q个变量

Y = ( y 1 , y 2 , ⋅ ⋅ ⋅ , y q ) Y=(y_1,y_2,···,y_q) Y=(y1,y2,,yq)

则分别对这两组变量做线性组合后,再计算它们的加权和的简单相关系数,以这个简单相关系数当做这两组变量之间相关性的度量指标,即

在这里插入图片描述

其中,u 和 v 分别是由 x 变量和 y 变量的线性组合产生的综合逐步变量。显然,对任意的一组系数 ( a 1 , a 2 , ⋅ ⋅ ⋅ , a p ) , ( b 1 , b 2 , ⋅ ⋅ ⋅ , b q ) (a_1, a_2,···,a_p),(b_1,b_2,···,b_q) (a1,a2,,ap),(b1,b2,,bq)都可以通过上式求出一对典型变量 u 和 v,在典型相关分析中称之为典型变量。进而可以求出典型变量 u 和 v 的简单相关系数,称之为典型相关系数。
那么,问题来了,怎么进行组合呢?

首先,分别在每组变量中找出第一对线性组合

在这里插入图片描述

使其具有最大相关性,即使得对应的典型变量 v 1 v_1 v1 u 1 u_1 u1的相关系数为最大。
假设这个最大的

p 1 = p ( u 1 , v 1 ) p_1=p(u_1,v_1) p1=p(u1,v1)

则称 p 1 p_1 p1为第1典型相关系数,且称具有最大相关系数的这对典型变量 u 1 u_1 u1 v 1 v_1 v1为第1典型变量。

然后再次估计组合系数,在每组变量中找出第二对线性组合,使其分别与本组内的第一线性组合不相关,第二对本身具有次大的相关性

在这里插入图片描述

假设这个次大的相关系数是

p 2 = p ( u 2 , v 2 ) p_2=p(u_2,v_2) p2=p(u2,v2)

则称 p 2 p_2 p2为第2典型相关系数,且称这对典型变量 u 2 u_2 u2 v 2 v_2 v2为第2典型变量。

其中, u 2 u_2 u2 v 2 v_2 v2 u 1 u_1 u1 v 1 v_1 v1相互独立,但 u 2 u_2 u2 v 2 v_2 v2相关。如此继续下去,直至进行到 r 步,两组变量的相关性被提取完为止。

r ≤ m i n ( p , q ) r\leq min(p,q) rmin(p,q)

可以得到 r 组变量。

从上述分析的过程可以看出,第1对典型变量的第1典型相关系数 p 1 p_1 p1描述了两个组中变量之间的相关程度,且它提取的有关这两组变量相关性的信息景最多。

第2对典型变量的第2典型相关系数 p 2 p_2 p2也描述了两个组中变量之间的相关程度,但它提取的有关这两组变量相关性的信总量次多。

依次类推,可以得知,由上述方法得到的一系列典型变量的典型相关系数,所包含的有关原变量组之间相关程度的信息一个比一个少,如果少数几对典型变量就能够解释原数据的主要信息,特别是如果一对典型变量就能够反映出原数据的主要信息,那么,对两个变量组之间相关程度的分析就可以转化为对少数几对或者是一对典型变量的简单相关分析,这就是典型相关分析的主要目的。

典型相关分析的理论以及基本假设

考虑两组变量的向量

在这里插入图片描述

典型相关分析就是寻找 x 组 的线性组合 u 1 = a 11 x 1 + a 21 x 2 + ⋅ ⋅ ⋅ + a p 1 x p u_1=a_{11}x_1+a_{21}x_2+···+a_{p1}x_p u1=a11x1+a21x2++ap1xp与 y 组的线性组合 v 1 = b 11 y 1 + b 21 y 2 + ⋅ ⋅ ⋅ + b q 1 y q v_1=b_{11}y_1+b_{21}y_2+···+b_{q1}y_q v1=b11y1+b21y2++bq1yq,使得 u 1 u_1 u1 v 1 v_1 v1之间的简单相关系数为最大,其中

在这里插入图片描述

设,x 组与 y 组的协方差阵为

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

典型相关系数的检验

那么,要选择多少组典型变量呢?

在做两组变量 X , Y X,Y XY的典型相关分析之前,首先应该检验两组变量是否相关,如果不相关,则讨论两组变量的典型相关就毫无意义.

最多可以选取 r = m i n ( p , q ) r = min(p,q) r=min(p,q)组,可经由卡方检验决定要选取多少组典型变量。先检验最大的典型根,然后再一个接一个对各个根进行检验,只保留有统计显著性(就是拒绝原假设)的根。

1. 提出假设

在这里插入图片描述

2. 当上述原假设 H 0 H_0 H0被拒绝时,接着做

在这里插入图片描述

3. 当上述原假设 H 0 H_0 H0被拒绝时,接着做

H 0 : λ 3 = ⋅ ⋅ ⋅ = λ r = 0 H_0:\lambda _3=···=\lambda _r=0 H0:λ3==λr=0

····

4. 依此类推

在这里插入图片描述

案例

对应分析

对应分析原理

案例

参考博客

判别分析 ( distinguish analysis)(一):距离判别

典型相关分析(canonical correlation analysis,CCA)

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值