【线性判别】Fisher线性判别(转)

本文介绍了Fisher线性判别准则,用于在特征空间中找到最优分类面。在高维空间中,Fisher判别方法通过降低维数来解决模式识别问题,寻找最佳投影方向以最大化类间距离和最小化类内距离。文章结合统计和数学方法解释了如何确定最佳变换向量w,以实现样本的最佳分离。
摘要由CSDN通过智能技术生成

【线性判别】Fisher线性判别(转)

今天读paper遇到了Fisher线性判别的变体, 所以来学习一下, 所以到时候一定要把PRMl刷一遍呀

以下两篇论文一起阅读比较好:
论文1: https://blog.csdn.net/Rainbow0210/article/details/52892805

在前文《贝叶斯决策理论》中已经提到,很多情况下,准确地估计概率密度模型并非易事,在特征空间维数较高和样本数量较少的情况下尤为如此。
实际上,模式识别的目的是在特征空间中设法找到两类(或多类)的分类面,估计概率密度函数并不是我们的目的。
前文已经提到,正态分布情况下,贝叶斯决策的最优分类面是线性的或者是二次函数形式的,本文则着重讨论线性情况下的一类判别准则——Fisher判别准则。

为了避免陷入复杂的概率的计算,我们直接估计判别函数式中的参数(因为我们已经知道判别函数式是线性的)。

首先我们来回顾一下线性判别函数的基本概念:
1450389-20181205135416233-1055220208.png

1450389-20181205135428928-1484182490.png
1450389-20181205135445650-651649466.png
1450389-20181205135500467-2090423272.png
1450389-20181205135511799-1702203861.png
1450389-20181205135526786-1775564128.png
1450389-20181205135537362-1832131995.png

第二篇: https://blog.csdn.net/qq_18870127/article/details/79097735

       应用统计方法解决模式识别问题时,一再碰到的问题之一就是维数问题。在低维空间里解析上或计算上行得通的方法,在高维空间里往往行不通。因此,降低

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值