fisher信息矩阵_经典模式识别:Fisher线性判别

本文将介绍Fisher线性判别的原理和具体实践,阅读时间约8分钟,关注公众号可在后台领取数据集资源哦^-^

8a41391dd4cc80f2033fadd20a16ddb3.gif c31a5e4f2b521a65522eeb2d48a2f4ce.gif

Fisher线性判别

1.背景介绍

生活中我们往往会遇到具有高维特性的数据,如个人信息,天气数据等。而在使用统计方法处理分类等模式识别问题时,通常是在低维空间展开研究的。而一般基于统计学习方法难以求解高维数据,所以降维成了解决问题的突破口。

对于高维空间样本,投影到一维坐标上,可能会出现样本特征混杂的现象,这将难以进行分类。如果寻找一个投影方向,使得样本集合在该投影方向最易区分,找寻这个最优方向的过程就是Fisher线性判别所解决的问题。

Fisher判别法的基本思想是将 类维数据集尽可能地投影到一条直线方向,使得类与类之间尽可能分开,再通过确定一个分类阈值来进行分类。

2.模型建立及求解方法

2.1基本参量

假设有个N1属于类的n维样本以及N2个属于类的n维样本,将两者合并成一个集合。经线性组合可得标量:

d9cfafca5695504d42fde797206163a1.png

下面定义几个基本参量。在n维X空间中:

  1. 各类样本均值:

bcb00b76c14e8f60337733c1974b8881.png

    2.各类类内离散度矩阵:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Fisher线性判别分析 (Fisher Linear Discriminant Analysis, FLDA) 是一种经典线性判别分析方法,用于解决分类问题。Fisher线性判别是由英国统计学家R. A. Fisher于1936年提出的。 Fisher线性判别的目标是通过找到一个投影方向,使得不同类别的样本在投影空间中尽可能地分开,同一类别的样本尽可能接近。它基于两个重要的假设:样本在各个类别中服从正态分布,并且类别具有相同的协方差矩阵。 FLDA的步骤如下:首先计算每个类别的均值向量和类内散布矩阵,然后计算类间散布矩阵。接下来,通过求解广义瑞利商的最大特征值问题,找到一个投影向量,使得类内散布矩阵的投影尽可能小,而类间散布矩阵的投影尽可能大。最后,可以根据投影向量和阈值将样本进行分类。 Fisher线性判别具有一些优点。首先,它可以在高维空间中进行分类,通过降维可以更好地可视化数据,减少冗余信息。其次,FLDA考虑了类别之间的关系,可以有效地提取不同类别之间的差异特征。此外,FLDA不需要过多的参数估计,计算简单且具有较好的分类性能。 然而,Fisher线性判别也有一些限制。首先,FLDA假设样本满足正态分布,如果数据不符合该假设,则FLDA可能会失效。此外,FLDA是一种监督学习方法,需要有标签的训练数据,对于无标签数据,无法应用FLDA。 总之,Fisher线性判别是一种经典线性判别分析方法,通过找到最佳投影方向来实现分类。它在降维、分类和特征提取等任务中具有广泛的应用,并具有较好的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值