精通Excel数据统计与分析 - 摘要(第7章:判别分析)

一、判别分析

  • 判别分析是根据表明事物特点的变量值和他们所属的类求出判别函数,根据判别函数和对未知所属类别的事物进行分类的一种分析方法。
  • 判别分析有不同的分类:
    1. 按照判别的组数分类:两组判别分析、多组判别分析;
    2. 按总体用的数学模型来分:线性判别、非线性判别;
    3. 按判别对所处理变量方法来分:逐步判别、序贯判别(?)
    4. 按判别准则来分:距离判别、贝叶斯(Bayes)判别、费歇尔(Fisher)判别标准;
  • 判别分析的基本要求、假设
    1. 每一个判别变量不能是其它判别变量的线性组合,不存在多重共线性问题;
    2. 各组变量的协方差矩阵相等;
    3. 各判别变量之间具有多元正态分布,即每个变量对于所有其它的变量的固定值有正态分布
  • 距离判别法的基本思想:计算待判样本X到第i类总体的平均数的距离,哪个距离最小就归判到哪个总体
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 线性判别分析是一种常用的降维方法,可以将高维数据映射到低维空间中,同时保留数据的重要特征。在随机生成数的降维中,我们可以使用线性判别分析来将高维数据降维到二维或三维空间中,以便更好地进行可视化和分析。通过线性判别分析,我们可以找到最佳的投影方向,使得不同类别的数据点在投影后能够更好地分离开来。这样可以有效地提高数据的分类准确率和模型的性能。 ### 回答2: 线性判别分析(Linear Discriminant Analysis, LDA)是一种经典的模式识别算法,它的主要应用是在分类问题上。LDA通过将样本从高维空间投影到低维空间,实现降维的目的。它的基本思想是将高维空间中的分类信息转化到低维空间的坐标轴上,从而实现分类。 在第1关的任务中,我们需要对随机生成的三类二维正态分布数据进行降维。首先,我们需要先了解一下正态分布。正态分布是一个常见的概率分布,其中心极值出现的概率最大。它由两个参数决定:均值和方差。在我们的任务中,我们随机生成了三类具有不同均值和方差的二维正态分布数据,它们在二维平面上呈现出不同的分布特征,如下图所示。 ![LDA1](https://cdn.luogu.com.cn/upload/image_hosting/s3d3y0ya.png) 首先,我们需要将所生成的数据集按照类别进行划分,这样可以更好地观察不同类别之间的差异。接下来,就可以开始使用LDA算法进行降维。LDA算法的核心是找到一个合适的投影方向,使得投影后的数据集可以最大程度地保留原始数据的分类信息。在我们的任务中,由于有三个类别,因此LDA需要找到两个投影方向。 下面是LDA算法的具体步骤: 1. 计算每个类别的均值向量和总的均值向量。 2. 计算类内散度矩阵Sw和类间散度矩阵Sb。 (1)类内散度矩阵Sw:用于计算同一类别内每个样本与均值向量的距离,从而反映了同一类别内数据的分散程度。 (2)类间散度矩阵Sb:用于计算不同类别之间均值向量的距离,从而反映了不同类别之间的差异程度。 3. 计算Sw的逆矩阵与Sb的乘积得到最优投影方向w。 4. 将原始数据集投影到最优方向w上,得到降维后的数据集Y。 在我们的任务中,LDA算法可以将二维数据降低到一维数据,从而实现降维的效果。下面是降维后的结果图: ![LDA2](https://cdn.luogu.com.cn/upload/image_hosting/ukoztncb.png) 从图中可以看出,经过LDA算法的降维处理后,三个类别之间的差异更加明显,数据点也更加分散。算法成功地将原始数据降维,并能够很好地保持数据分类信息。 总的来说,LDA算法是一种非常有用的降维算法,它可以帮助我们对数据进行降维处理,在保持数据分类信息的同时,减少计算量和存储空间。虽然LDA算法的应用场景有一定的限制,但在分类问题上,LDA算法仍然是一种很好的求解方案。 ### 回答3: 线性判别分析(Linear Discriminant Analysis,LDA)是一种经典的降维方法,它将高维特征空间中的样本映射到低维空间(通常为一维或二维),从而实现数据的降维、分类和可视化等目的。在实际的应用中,LDA常常被用来处理高维数据集,如图像、文本、音频、生物数据等。 LDA的原理是通过找到一组投影方向,将多类别的样本在低维空间中划分成不同的区域,使得同类别的样本尽可能聚集在一起,不同类别的样本尽可能分开,从而达到分类的目的。其关键在于计算投影方向,使得投影后不同类别的样本尽可能分开,同类别的样本尽量聚集在一起。这就需要计算类别间的距离和类别内的距离。具体而言,LDA可以分为以下步骤: 1. 计算每个类别的均值向量; 2. 计算类间散度矩阵和类内散度矩阵; 3. 计算广义特征值和广义特征向量; 4. 选取前k个广义特征向量作为投影方向; 5. 将样本投影到选定的投影方向上,得到降维后的数据。 LDA的优缺点: 1. 优点:LDA不仅可以用于分类和降维,还可以用于特征选择和分类器的训练; 2. 缺点:LDA需要对数据先做分布假设,即假设数据符合高斯分布;同时LDA通常只适用于二分类或多分类问题,对于回归问题无法处理。 随机生成数的降维是指将随机生成的高维特征数据进行降维处理,可以使用LDA方法实现。在这种情况下,我们的主要目的是通过降维减少特征数据的维度,但不会影响数据的结构和信息。在LDA中,通过计算每个类别的均值向量和散度矩阵来寻找最佳投影方向,以便将数据投影到较低的维度。这样,我们可以通过LDA方法处理随机生成的数,以便有效地降低维度。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值