【机器学习】机器学习之线性判别分析(LDA)

一、线性判别分析介绍

  线性判别分析(Linear Discriminant Analysis,简称 L D A LDA LDA)是一种经典的线性学习方法,亦称"Fisher 判别分析"。
在这里插入图片描述

  线性判别分析思想:给定训练样本集,设法将样例投影到一条直线上。使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远;在对新样本进行分类时,将其投影到该直线上,再根据投影点的位置来确定新样本的类别。

二、线性判别分析原理

  给定数据集 D = { ( x i , y i ) } i = 1 m , y i ∈ { 0 , 1 } D= \{(\pmb{x_i} , y_i) \}^m_{i=1},y_i\in\{ 0,1\} D={(xixixi,yi)}i=1m,yi{0,1} ,令 X i X_i Xi μ i \pmb{\mu_i} μiμiμi ∑ i \pmb{\sum_i} iii 分别表示 i ∈ { 0 , 1 } i\in\{0,1\} i{0,1} 类示例的集合、均值向量、协方差矩阵。若将数据投影到直线 ω \pmb{\omega} ωωω 上,则两类样本的中心在直线上的投影分别为 ω T μ 0 \pmb{\omega^T\mu_0} ωTμ0ωTμ0ωTμ0 ω T μ 1 \pmb{\omega^T\mu_1} ωTμ1ωTμ1ωTμ1 ;若将所有样本点都投影到直线上,则两类样本的协方差分别为 ω T ∑ 0 ω \pmb{\omega^T\sum_0\omega} ωT0ωωT0ωωT0ω ω T ∑ 1 ω \pmb{\omega^T\sum_1\omega} ωT1ωωT1ωωT1ω 。由于直线处于一维空间,因此 ω T μ 0 \pmb{\omega^T\mu_0} ωTμ0ωTμ0ωTμ0 ω T μ 1 \pmb{\omega^T\mu_1} ωTμ1ωTμ1ωTμ1 ω T ∑ 0 ω \pmb{\omega^T\sum_0\omega} ωT0ωωT0ωωT0ω ω T ∑ 1 ω \pmb{\omega^T\sum_1\omega} ωT1ωωT1ωωT1ω 均为实数。

  要使得同类样例的投影点尽可能接近,所以应让同类样例投影点的协方差尽可能小,即 ω T ∑ 0 ω + ω T ∑ 1 ω \pmb{{\omega^T\sum_0\omega}+{\omega^T\sum_1\omega}} ωT0ω+ωT1ωωT0ω+ωT1ωωT0ω+ωT1ω 尽可能小。
  要使得异类样例的投影点尽可能地远,则让类中心之间的距离尽可能大,即 ∣ ∣ ω T μ 0 − ω T μ 1 ∣ ∣ 2 2 ||\pmb{\omega^T\mu_0}-\pmb{\omega^T\mu_1||_2^2} ωTμ0ωTμ0ωTμ0ωTμ122ωTμ122ωTμ122 尽可能大。同时考虑二者,则需要得到的最大化目标为:
J = ∣ ∣ ω T μ 0 − ω T μ 1 ∣ ∣ 2 2 ω T ∑ 0 ω + ω T ∑ 1 ω = ω T ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T ω ω T ( ∑ 0 + ∑ 1 ) ω \begin{aligned} \pmb{J} &= \frac{||\omega^T\mu_0 - \omega^T\mu_1||_2^2}{{\omega^T\sum_0\omega}+\omega^T\sum_1\omega}\\ &= \frac{\omega^T(\mu_0 - \mu_1)(\mu_0-\mu_1)^T\omega}{\omega^T(\sum_0+\sum_1)\omega}\\ \end{aligned} JJJ=ωT0ω+ωT1ωωTμ0ωTμ122=ωT(0+1)ωωT(μ0μ1)(μ0μ1)Tω

1. 类内散度矩阵(within-class scatter matrix)

  类内散度矩阵用来判断同类样例的投影点之间的距离。
S w = ∑ 0 + ∑ 1 = ∑ x ∈ X 0 ( x − μ 0 ) ( x − μ 0 ) T + ∑ x ∈ X 1 ( x − μ 1 ) ( x − μ 1 ) T \begin{aligned} S_w &= \sum_0 + \sum_1 \\ &= \sum_{x\in X_0} (x-\mu_0)(x-\mu_0)^T +\sum_{x\in X_1} (x-\mu_1)(x-\mu_1)^T \end{aligned} Sw=0+1=xX0(xμ0)(xμ0)T+xX1(xμ1)(xμ1)T

2. 类间散度矩阵(between-class scatter matrix)

  类间散度矩阵用来判断异类样例的投影点之间的距离。
S b = ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T S_b = (\mu_0-\mu_1)(\mu_0-\mu_1)^T Sb=(μ0μ1)(μ0μ1)T

3. 广义瑞利商(generalized Rayleigh quotiet)

  广义瑞利商(generalized Rayleigh quotiet)就是 L D A LDA LDA欲最大化的目标。
  使用类内散度矩阵类间散度矩阵将最大化目标改写为:
J = ω T S b ω ω T S w ω \pmb{J} = \frac{\omega^TS_b\omega}{\omega^TS_w\omega}\\ JJJ=ωTSwωωTSbω

   L D A LDA LDA 可从贝叶斯决策理论的角度来阐释,并可证明,当两类数据同先验、满足高斯分布且协方差相等时, L D A LDA LDA可达到最优分类。

三、sklearn库实现线性判别分析LDA

  1. 数据生成
#生成200个三个维度样本
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from matplotlib.colors import ListedColormap
from sklearn.datasets import make_classification
x, y = make_classification(n_samples=200, n_features=2, n_redundant=0, n_classes=2, n_informative=2,n_clusters_per_class=2,class_sep =1, random_state =0)
fig = plt.figure()
plt.scatter(x[:, 0], x[:, 1], c=y)

在这里插入图片描述

  1. 数据处理
#设置分类平滑度
h = .01
#设置X和Y的边界值
x_min, x_max = x[:, 0].min() - 1, x[:, 0].max() + 1
y_min, y_max = x[:, 1].min() - 1, x[:, 1].max() + 1

#使用meshgrid函数返回X和Y两个坐标向量矩阵
xx, yy = np.meshgrid(np.arange(x_min, x_max,h), np.arange(y_min, y_max,h))
Z = lda.predict(np.c_[xx.ravel(), yy.ravel()])
  1. 数据集划分
from sklearn.model_selection import train_test_split
x_train,x_test,y_train,y_test = train_test_split(x, y, random_state=33, test_size=0.25)
  1. LDA分类
#使用LDA进行降维
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis 
from sklearn.linear_model import LogisticRegression
lda = LinearDiscriminantAnalysis(n_components=1)

x_train_lda = lda.fit_transform(x_train, y_train)  # LDA是有监督方法,需要用到标签
x_test_lda = lda.fit_transform(x_test, y_test)   # 预测时候特征向量正负问题,乘-1反转镜像
  1. 绘制训练集分类图像
#设置colormap颜色
cm_bright = ListedColormap(['#D9E021', '#0D8ECF'])
#绘制数据点
plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=cm_bright)
plt.title('Linear Discriminant Analysis Classifiers')
plt.axis('tight')
plt.show()

在这里插入图片描述

  1. 绘制测试集分类图像
plt.title('Linear Discriminant Analysis Classifiers')
plt.scatter(x_test[:, 0], x_test[:, 1], c=y_test, cmap=cm_bright)
plt.show()

在这里插入图片描述

四、总结

   LDA算法既可以用来降维,也可以用来分类,但是目前来说,主要还是用于降维,和PCA类似,LDA降维基本也不用调参,只需要指定降维到的维数即可。

五、参考

Python机器学习笔记:线性判别分析(LDA)算法

  • 7
    点赞
  • 68
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值