LDA算法——线性判别

目录

一、前言

二、什么是LDA?

三、LDA原理

1.二分类问题

2.多分类问题

3.几点说明

 四、算法实现


一、前言

        之前我们已经介绍过PCA算法,这是一种无监督的降维方法,可以将高维数据转化为低维数据处理。然而,PCA总是能适用吗?

        考虑如下数据点:

         由PCA的原理我们可知,这些数据点在经PCA处理后会被映射到x轴上,如下所示:

        可以发现,投影后,红色数据点和蓝色数据点并不能很好地区分开。思考其背后的原因,在这个例子中,我们的数据点有了类别标签,而PCA是一种无监督学习算法,它会对所有类别的数据点 一视同仁,所以在分类问题中,PCA总是显得乏力。事实上,相比于X轴,将数据点投影到Y轴是一个更优选择:

         如上图所示,将数据点投影到Y轴可以将两个类别的数据点很好地区分开来。那么我们该如何找到这种投影方式呢,下面我们将介绍一种新的降维方法——LDA算法。

二、什么是LDA?

        线性判别分析(LDA),同PCA类似,也是一种降维算法,不一样的是,LDA是一种监督算法,它需要用到类别信息。LDA算法的思路同PCA一致,即通过某种线性投影,将原本高维空间中的一些数据,映射到更低维度的空间中,但LDA算法要求投影后的数据满足:1.同类别的数据之间尽可能地接近。2.不同类别的数据之间尽可能地远离。

三、LDA原理

1.二分类问题

        从最简单的二分类问题开始讨论。根据LDA的投影目标,我们可以得到我们要优化的目标如下:

J = \frac{\left \| u_1'-u_2' \right \|^2}{S_1'^2+S_2'^2}

        其中,u_1',u_2'代表投影后两个类别的数据的中心点,S_1',S_2'代表投影后两个类别的数据的标准差。同PCA一致,我们一般用方差来表示数据的离散散程度,观察优化目标J,分子衡量的是投影后两个类别的数据中心点的距离,而分母衡量的是投影后两个类别的数据各自的离散程度。同类别的数据越接近(LDA投影目标1),分母越小,J越大;不同类别的数据越远离(LDA投影目标2),分子越大,J越大,目标合理。

        方便起见,设X为原始数据点,u_1=\sum_{X\in Class1} \frac{X}{N},u_2=\sum_{X\in Class2} \frac{X}{N}分别为原始数据的中心点,w为投影向量,则有:

u_1'=\sum_{X\in Class1} \frac{w^TX}{N}=w^Tu_1

u_2'=\sum_{X\in Class2}\frac{w^TX}{N}=w^Tu_2

S_1'^2=\frac{1}{N}\sum \left \| w^TX-u_1' \right \|^2=\sum w^T\frac{1}{N}(X-u_1)(X-u_1)^Tw=w^TS_1w

S_2'^2=\frac{1}{N}\sum \left \| w^TX-u_2' \right \|^2=\sum w^T\frac{1}{N}(X-u_2)(X-u_2)^Tw=w^TS_2w

        优化目标即为:

J(w) = \frac{\left \| u_1'-u_2' \right \|^2}{S_1'^2+S_2'^2}=\frac{\left \| w^T(u_1-u_2) \right \|^2}{w^T(S_1+S_2)w}=\frac{w^T(u_1-u_2)(u_1-u_2)^Tw}{w^T(S_1+S_2)w}

        不妨设S_B=(u_1-u_2)(u_1-u_2)^T,S_w=S_1+S_2,则J(w)可简化为\frac{w^TS_Bw}{w^TS_ww}

        对J(w)求导,应有:

\frac{d J(w)}{dw}=\frac{2S_Bw(w^TS_ww)-2S_ww(w^TS_Bw)}{\left \| w^TS_2w \right \|^2}=0

        化简,得:

S_Bw(w^TS_ww)-S_ww(w^TS_Bw)=0

        等式两边同除以w^TS_ww,得:

S_Bw-S_ww\frac{w^TS_Bw}{w^TS_ww}=S_Bw-S_wJw=0

           变形,得:

S_w^{-1}S_Bw=Jw

        显然,这又是一个矩阵分解问题,J是矩阵S_w^{-1}S_B的特征值,同时也是我们优化的目标,而w即为对应的特征值,也是投影向量,所以我们将矩阵分解得到的特征值从大到小排列,然后取最大的几个特征值对应的特征向量作为我们的投影向量。

        观察式子S_Bw-S_wJw=0,由于S_B=(u_1-u_2)(u_1-u_2)^T,代入,得:

(u_1-u_2)(u_1-u_2)^Tw=S_wJw

        由于(u_1-u_2)^Tw代表的是投影后两类数据中心点间的距离,我们可以用常数D代替,于是有:

w=\frac{D}{j}S_w^{-1}(u_1-u_2)

        对于投影向量w,我们只需要求得它的方向,对于它的大小(缩放程度)并无要求,所以我们最终求得的投影向量w即为S_w^{-1}(u_1-u_2)。通过这种方法,我们并不需要对矩阵进行分解便能求得投影向量,大大减少了计算量。

2.多分类问题

       对二分类问题进行推广,考虑多分类问题。同样,投影的目的仍是使得同类数据点尽可能近,不同类别的数据点尽可能远。这里需要对优化目标J做适当改变,如下:

J=\frac{\sum N_i\left \| u_i'-u' \right \|^2}{\sum S_i'^2}

        其中,u_i,S_i和二分类问题一致,仍是第i类数据的中心点和标准差,而u则代表所有数据的中心,N_i代表第i个类别的数据个数。仔细观察,可以发现,目标J的分母仍为各类别数据投影后的离散程度,而分子则是投影后各类别数据中心距所有数据中心点的距离的加权平方和,同样是衡量不同类别数据点的分离程度。优化的目标同二分类问题一致,重点关注LDA投影目标,万变不离其宗。

        以二分类问题为例进行验证,有:

\begin{align} S_B&=N_1(u_1-u)(u_1-u)^T+N_2(u_2-u)(u_2-u)^T\\ &=N_1(u_1-u)(u_1-u)^T+N_2(u_2-u)(u_2-u)^T\\ &=N_1(u_1-\frac{N_1u_1+N_2u_2}{N})(u_1-\frac{N_1u_1+N_2u_2}{N})^T+N_2(u_2-\frac{N_1u_1+N_2u_2}{N})(u_2-\frac{N_1u_1+N_2u_2}{N})^T\\ &=N_1(\frac{N_2u_1-N_2u_2}{N})(\frac{N_2u_1-N_2u_2}{N})^T+N_2(\frac{N_1u_2-N_1u_1}{N})(\frac{N_1u_2-N_1u_1}{N})^T\\ &=\frac{N_1N_2^2}{N}(u_1-u_2)(u_1-u_2)^T+\frac{N_1^2N_2}{N}(u_1-u_2)(u_1-u_2)^T\\ &=\frac{N_1N_2}{N}(u_1-u_2)(u_1-u_2)^T \end{align}

        同样,我们只需要知道投影的方向,所以对于常数项\frac{N_1N_2}{N},其只控制投影后数据点的缩放,并不影响最终结果,可以忽略。可以发现,用多分类问题的公式计算出来的结果同二分类的计算公式完全一致。

3.几点说明

        (1).维度必减少

        PCA算法降维可以理解为旋转坐标轴,新的坐标下每条轴作为一个维度也即成分,对于差距不大的维度可以略去从而达到降维的目的,也就是说实际上PCA算法可以将N维数据仍然变换为N维数据,然后可视情况删减维度。但LDA算法不尽然,使用LDA算法时,新的坐标维度必会减少。

        以二分类为例,观察式子S_w^{-1}S_Bw=Jw,由于S_B=(u_1-u_2)(u_1-u_2)^T,可知S_B为奇异矩阵(它的秩最多为C-1),从而可以知道S_w^{-1}S_B也必为奇异矩阵,所以它分解后必有一个特征值为0,我们只能得到C-1个投影向量,C为类别个数。

        (2).投影后各维度之间不一定正交

        S_w^{-1}S_B不一定是实对称矩阵,所以它分解后得到的特征向量未必正交。

        (3).可能无解

        当样本点个数少于样本维度时,S_w会变为奇异矩阵,无法求逆。在这种情况下可能需要先用PCA降维,再使用LDA。

        (4).无法适用

        LDA并不是万能的,当同类别数据组成对角时,如下所示:

        对于这种情况,我们可以发现,无论怎么投影均无法将两类数据点很好地区分开来。事实上,对于这种情况,普通的线性投影均束手无策,应该先增加维度再考虑区分。

        此外,当不同类别的数据的中心重合,即u_1=u_2=u时,有S_B=0,此时LDA也不再适用。

        (5).对某些分类问题,PCA性能可能优于LDA

        当数据重合度过高时,如下所示:

        LDA会选择往Y轴方向进行投影,而PCA 由于不考虑类别信息,它会选择往X轴上进行投影。在这种情境下,PCA不失为一种更优选择。

 四、算法实现

        同样,根据前面的介绍,我们可以得到线性判别分析的一般步骤:给定样本,先中心化,然后求矩阵S_BS_w,再对矩阵S_w^{-1}S_B进行特征分解,代码实现如下:

        当然,也可以不进行特征分解,直接套用公式w =S_w^{-1}(u_1-u_2) :

         sklearn库里直接封装好了模型,可以直接使用:

         三种方法得到的特征向量分别为[0, -1],[0,-2],[0,8],标准化之后均为[0, 1],结果一致,即均投影到y轴上。观察特征分解结果,可以发现,有一个特征值为0,与前面对LDA的探讨一致。

  • 19
    点赞
  • 72
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
LDA线性判别分析)是一种常用的降维算法,在人脸识别中也有一定的应用。 LDA的目标是将数据映射到一个低维空间,同时保持类间距离最大化和类内距离最小化。在人脸识别中,我们可以将每个人的图像作为一个类别,通过LDA将高维的人脸图像数据映射到一个低维子空间。 在LDA中,首先计算每个类别内的协方差矩阵以及所有类别的协方差矩阵。然后,通过求解广义本征值问题,得到投影矩阵,将高维数据映射到低维子空间。通过对投影后的样本进行分类,可以实现人脸识别任务。 通过LDA人脸识别,可以获得以下优势: 1. 可以有效地减少数据的维数,提高计算效率。 2. LDA在学习过程中考虑类别之间的差异,能够更好地区分不同的人脸。 3. LDA通过学习数据的内在结构,可以在低维空间中实现更好的分类效果。 然而,LDA也存在一些限制: 1. LDA假设数据符合高斯分布,但人脸图像在现实中存在一定的变化,这可能导致LDA的效果下降。 2. LDA在计算类间和类内协方差矩阵时需要耗费较大的计算资源。 3. LDA容易受到异常数据的影响,这可能导致分类结果的不稳定性。 总结来说,LDA作为一种降维和分类方法,可以用于人脸识别任务中。然而,在实践中需要考虑到LDA的限制,并结合其他方法进行优化,以实现更好的人脸识别效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值