线性判别分析(一)——LDA介绍

线性判别分析(LDA)是一种经典的数据分析方法,起源于Fisher的线性判别法。LDA通过将数据投影到一个新空间来实现分类和降维,目标是最大化类间距离和最小化类内距离,以提高分类效果。在二分类问题中,LDA通过线性变换找到最优投影方向,其目标函数涉及类间散度和类内散度的优化。
摘要由CSDN通过智能技术生成

线性判别分析(一)——LDA介绍
线性判别分析(二)——Bayes最优分类器的角度看LDA

1. LDA的基本思想

LDA(Linear Discriminant Analysis, 线性判别分析)由Fisher于1936年提出,又称为Fisher线性判别(FDA)。

注:LDA和FDA并不完全等价,LDA假设每个类别内的实例服从高斯分布并且不同类别对应的高斯分布的协方差矩阵相同。本篇博客介绍的其实是FDA,但我们不做细分,统一称作LDA。

LDA既可以用于解决分类问题,又可以对数据进行降维处理。

基本思想
将高维的样本数据投影到判别向量空间,以达到抽取分类信息和降低特征维数的效果,投影后保证数据在新的子空间中有最大的类间距离和最小的类内距离,即在该子空间有最佳的可分离性。

2. LDA用于二分类问题

本节我们会讨论二分类问题上LDA思想的应用。给定训练样本 D={ (xi,yi),i=1,,m} ,其中 xiRd 为第 i 个实例对应的特征向量, yi{0,1} 为第 i 个实例对应的类别标记。我们用 X 表示所有实例集合, Xc 表示c类别的实例集合,用 Nc 表示c类别对应的实例数。

在二分类问题上,LDA通过线性变换

z=ωTx(1)
将样本数据投影到一维空间中,并希望在投影空间中不同类别的样本数据之间尽可能分离,同类别的样本数据尽可能接近。我们需要把这一目标形式化为数学表达,以便求解出期望的投影方向 ω

2.1 目标函数

假设投影空间中的实例集合为 Z={ z1,z2,,zm} ,其中 zi=ωTxi 。类似于原始空间中的集合定义,我们用 Zc 表示投影空间中c类别实例集合。

x¯c 表示集合 Xc 的均值,则

x¯c=1NcxXcx.(2)

z¯c 表示集合 Zc 的均值,则

z¯c=1NczZcz.(3)

根据(1)(2)(3)可以推出

z¯c=1NczZcz
  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值