LDA 线性判别分析(降维)——还没看懂

LDA是一种监督学习的降维技术,常用于图像识别,结合类别信息找到类内方差最小、类间方差最大的投影。与PCA相比,LDA在考虑类别先验知识时更具优势,但不适合非高斯分布样本,并可能过度拟合。LDA降维最多降至类别数减一维,同时可用于分类。
摘要由CSDN通过智能技术生成

转载自:http://www.cnblogs.com/pinard/p/6244265.html

https://blog.csdn.net/weixin_40604987/article/details/79615968介绍的比较详细

降维方法线性判别分析(Linear Discriminant Analysis, 以下简称LDA)

LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用,此处的LDA,有必要将其与自然语言处理领域的LDA区别开来,在自然语言处理领域, LDA是隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA),他是一种处理文档的主题模型。我们本文只讨论线性判别分析,因此后面所有的LDA均指线性判别分析

LDA算法既可以用来降维,又可以用来分类,但是目前来说,主要还是用于降维。在我们进行图像识别图像识别相关的数据分析时,LDA是一个有力的工具。

一、LDA算法的优缺点。

    LDA算法的主要优点有:

    1)在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识

    2)LDA在样本分类信息依赖均值而不是方差的时候比PCA之类的算法较优

    LDA算法的主要缺点有:

    1)LDA不适合对非高斯分布样本进行降维,PCA也有这个问题

    2)LDA降维最多降到类别数k-1的维数,如果我们降维的维度大于k-1,则不能使用LDA。当然目前有一些LDA的进化版算法可以绕过这个问题

    3)LDA在样本分类信息依赖方差而不是均值的时候降维效果不好

    4)LDA可能过度拟合数据

 

LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。

,。

当然在实际应用中,我们的数据是多个类别的,我们的原始数据一般也是超过二维的,投影后的也一般不是直线,而是一个低维的超平面。

二、LDA vs PCA

LDA用于降维,和PCA有很多相同,也有很多不同的地方,因此值得好好的比较一下两者的降维异同点。

    首先我们看看相同点:

    1)两者可以对数据进行降维

    2)两者在降维时均使用了矩阵特征分解的思想

    3)两者都假设数据符合高斯分布

    我们接着看看不同点:

    1)LDA是有监督的降维方法,而

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值