经典线性降维算法—线性判别分析

线性判别分析(LDA)是一种有监督的降维方法,利用类别信息最大化类间差异同时最小化类内差异。与PCA不同,LDA考虑了类别标签,通过优化目标函数寻找最优特征向量,从而实现数据投影后的分类友好。在数据量充足的情况下,LDA通常表现出比PCA更好的降维效果。
摘要由CSDN通过智能技术生成

与PCA降维不同,LDA是有监督的降维,它的基本思想就是利用类标信息找到子空间S,将数据映射到S中后,不同类别的数据尽量远离,相同类别的数据尽量接近。

与PCA类似,LDA利用方差作为指标来衡量数据在投影方向上的差异程度。 协方差矩阵是一个矩阵,其每个元素是各个向量元素之间的协方差。而协方差描述了向量之间的相关程度。协方差的公式和方差十分相近,甚至可以说方差是协方差的一种特例。所以协方差不仅是反映了变量之间的相关性,同样反映了多维样本分布的离散程度(一维样本使用方差),协方差越大(对于负相关来说是绝对值越大),表示数据的分布越分散。欲使同类样例的投影点尽可能接近,可以让同类样本点的协方差矩阵尽可能小。

类内差异:
对于两类问题而言:
在这里插入图片描述
对于多类问题类内散度矩阵公式:
在这里插入图片描述
在这里插入图片描述
上式表示第i类样本的协方差矩阵。所以 Sw就是表示C类样本协方差矩阵之和。

类间差异:
对于两类样本而言:
在这里插入图片描述
对于多类问题:
在这里插入图片描述
为了使得类内差异越小越好,类间差异越大越好的目标,LDA通过最大化化下列目标函数,求出最优的w。
在这里插入图片描述
在这里插入图片描述
通过简化:
在这里插入图片描述
可以看到上式就有转化为一个求解特征值和特征向量的问题了。w就是我们要求解的特征向量,这就验证了我们之前所说的式子,y=wTx中的w就是特征向量构成的矩阵。

值得注意的是sw有可能是奇异矩阵,所以需要对它进行修正,使其变成非奇异:
sw=sw+a*Id

Id是dxd的单位矩阵,a是一个比较小的系数。一旦W=[w1,…,wk],维度dxk确定,就可以通过该矩阵得到降维后的y=(k*n)。

有监督的LDA算法降维效果表现一般会优于非监督的PCA算法,但是它由于要计算类内与类间差异,所以执行LDA算法需要各个类别的数据量比较充足。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

身影王座

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值