机器学习——降维算法LDA

主要流程:
在这里插入图片描述
理论部分的参考文章:
1、LDA和PCA降维总结
2、详解协方差与协方差矩阵
3、期望值、均值向量和协方差矩阵
4、如何计算数学期望

以下是用一个经典的“鸢尾花”数据集上使用线性判别分析完成降维任务。

数据集中含有3类共150条鸢尾花基本数据,其中3个种类山鸢尾,变色鸢尾,维吉尼亚鸢尾各50条数据,包括了萼片长度,萼片宽度,花瓣长度,花瓣宽度4个特征。

1、数据集处理

# 自己来定义列名,首先读取数据集
feature_dict = {i:label for i,label in zip(
                range(4),
                  ('sepal length in cm',
                  'sepal width in cm',
                  'petal length in cm',
                  'petal width in cm', ))}

label_dict = {i:label for i,label in zip(
                range(1,4),
                  ('Setosa',
                  'Versicolor',
                  'Virginica'
                 ))}
import pandas as pd
# 数据读取,大家也可以先下载下来直接读取
df = pd.io.parsers.read_csv(
    filepath_or_buffer='https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data',
    header=None,
    sep=',',
    )
# 指定列名
df.columns = [l for i,l in sorted(feature_dict.items())] + ['class label']

df.head()
sepal length in cmsepal width in cmpetal length in cmpetal width in cmclass label
05.13.51.40.2Iris-setosa
14.93.01.40.2Iris-setosa
24.73.21.30.2Iris-setosa
34.63.11.50.2Iris-setosa
45.03.61.40.2Iris-setosa

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DhGykfYv-1614248839857)(attachment:image.png)]

由于特征与已经是数值数据,不需要做额外的处理,但是需要转换一个标签:

from sklearn.preprocessing import LabelEncoder

X = df[['sepal length in cm','sepal width in cm','petal length in cm','petal width in cm']].values
y = df['class label'].values

# 制作标签{1: 'Setosa', 2: 'Versicolor', 3:'Virginica'}
enc = LabelEncoder()
label_encoder = enc.fit(y)
y = label_encoder.transform(y) + 1

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GRJOFxTK-1614248839862)(attachment:image.png)]

2、不同特征维度上的均值向量

在计算过程中需要基于均值来判断距离,因此先要对数据中各个特征求均值,就是对每种花分别求其各个特征的均值

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LAcJfi38-1614248839865)(attachment:image.png)]

import numpy as np
#设置小数点的位数
np.set_printoptions(precision=4) 
#这里会保存所有的均值
mean_vectors = []
# 要计算3个类别
for cl in range(1,4):
    # 求当前类别各个特征均值
    mean_vectors.append(np.mean(X[y==cl], axis=0))
    print('均值类别 %s: %s\n' %(cl, mean_vectors[cl-1]))
均值类别 1: [5.006 3.418 1.464 0.244]

均值类别 2: [5.936 2.77  4.26  1.326]

均值类别 3: [6.588 2.974 5.552 2.026]

3、类内散步矩阵与类间散步矩阵

接下来计算类内散步矩阵:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FF7h1zAD-1614248839870)(attachment:image.png)]

# 原始数据中有4个特征
S_W = np.zeros((4,4))
# 要考虑不同类别,自己算自己的
for cl,mv in zip(range(1,4), mean_vectors):
    class_sc_mat = np.zeros((4,4))    
    # 选中属于当前类别的数据
    for row in X[y == cl]:
        # 这里相当于对各个特征分别进行计算,用矩阵的形式
        row, mv = row.reshape(4,1), mv.reshape(4,1)
        # 跟公式一样
        class_sc_mat += (row-mv).dot((row-mv).T)
    S_W += class_sc_mat                             
print('类内散布矩阵:\n', S_W)
类内散布矩阵:
 [[38.9562 13.683  24.614   5.6556]
 [13.683  17.035   8.12    4.9132]
 [24.614   8.12   27.22    6.2536]
 [ 5.6556  4.9132  6.2536  6.1756]]

接下来计算类间散步矩阵:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EJbopYIt-1614248839872)(attachment:image.png)]

# 全局均值
overall_mean = np.mean(X, axis=0)
# 构建类间散布矩阵
S_B = np.zeros((4,4))
# 对各个类别进行计算
for i,mean_vec in enumerate(mean_vectors):  
    #当前类别的样本数
    n = X[y==i+1,:].shape[0]
    mean_vec = mean_vec.reshape(4,1) 
    overall_mean = overall_mean.reshape(4,1) 
    # 如上述公式进行计算
    S_B += n * (mean_vec - overall_mean).dot((mean_vec - overall_mean).T)

print('类间散布矩阵:\n', S_B)
类间散布矩阵:
 [[ 63.2121 -19.534  165.1647  71.3631]
 [-19.534   10.9776 -56.0552 -22.4924]
 [165.1647 -56.0552 436.6437 186.9081]
 [ 71.3631 -22.4924 186.9081  80.6041]]

4、特征值与特征向量

得到类内核类间散布矩阵之后,还需要将他们组合在一起,然后求解矩阵的特征向量:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XNuBfk6M-1614248839875)(attachment:image.png)]

#求解矩阵特征值,特征向量
eig_vals, eig_vecs = np.linalg.eig(np.linalg.inv(S_W).dot(S_B))
# 拿到每一个特征值和其所对应的特征向量
for i in range(len(eig_vals)):
    eigvec_sc = eig_vecs[:,i].reshape(4,1)   
    print('\n特征向量 {}: \n{}'.format(i+1, eigvec_sc.real))
    print('特征值 {:}: {:.2e}'.format(i+1, eig_vals[i].real))
特征向量 1: 
[[-0.2049]
 [-0.3871]
 [ 0.5465]
 [ 0.7138]]
特征值 1: 3.23e+01

特征向量 2: 
[[-0.009 ]
 [-0.589 ]
 [ 0.2543]
 [-0.767 ]]
特征值 2: 2.78e-01

特征向量 3: 
[[-0.8844]
 [ 0.2854]
 [ 0.258 ]
 [ 0.2643]]
特征值 3: 3.42e-15

特征向量 4: 
[[-0.2234]
 [-0.2523]
 [-0.326 ]
 [ 0.8833]]
特征值 4: 1.15e-14

输出结果得到4个特征值和其所对应的特征向量,特征向量直接观察起来比较麻烦,因为投影方向在高维上很难理解。

  • 特征向量:表示映射方向
  • 特征值:特征向量的重要程度
#特征值和特征向量配对
eig_pairs = [(np.abs(eig_vals[i]), eig_vecs[:,i]) for i in range(len(eig_vals))]

# 按特征值大小进行排序
eig_pairs = sorted(eig_pairs, key=lambda k: k[0], reverse=True)

print('特征值排序结果:\n')
for i in eig_pairs:
    print(i[0])
特征值排序结果:

32.27195779972981
0.27756686384003953
1.1483362279322388e-14
3.422458920849769e-15
print('特征值占总体百分比:\n')
eigv_sum = sum(eig_vals)
for i,j in enumerate(eig_pairs):
    print('特征值 {0:}: {1:.2%}'.format(i+1, (j[0]/eigv_sum).real))
特征值占总体百分比:

特征值 1: 99.15%
特征值 2: 0.85%
特征值 3: 0.00%
特征值 4: 0.00%

选择前两维特征,这表示可以把特征数据降到二维甚至一维,但没必要降到三维。

所以选择把数据降到二维,只需选择特征值1、特征值2所对应的特征向量即可。下面将前两个特征向量拼接在一起。

W = np.hstack((eig_pairs[0][1].reshape(4,1), eig_pairs[1][1].reshape(4,1)))
print('矩阵W:\n', W.real)
矩阵W:
 [[-0.2049 -0.009 ]
 [-0.3871 -0.589 ]
 [ 0.5465  0.2543]
 [ 0.7138 -0.767 ]]

上面这个矩阵w就是所需的投影方向,只需要和原始数据组合,就可以得到降维结果

# 执行降维操作
X_lda = X.dot(W)
X_lda.shape
(150, 2)

可以看见数据维度从原始的(150,4)降到了(150,2),到此完成了降维的任务。

5、可视化展示

原始数据可视化展示

from matplotlib import pyplot as plt
# 可视化展示
def plot_step_lda():

    ax = plt.subplot(111)
    for label,marker,color in zip(
        range(1,4),('^', 's', 'o'),('blue', 'red', 'green')):

        plt.scatter(x=X[:,0].real[y == label],
                y=X[:,1].real[y == label],
                marker=marker,
                color=color,
                alpha=0.5,
                label=label_dict[label]
                )

    plt.xlabel('X[0]')
    plt.ylabel('X[1]')

    leg = plt.legend(loc='upper right', fancybox=True)
    leg.get_frame().set_alpha(0.5)
    plt.title('Original data')

    # 把边边角角隐藏起来
    plt.tick_params(axis="both", which="both", bottom="off", top="off",  
            labelbottom="on", left="off", right="off", labelleft="on")

    # 为了看的清晰些,尽量简洁
    ax.spines["top"].set_visible(False)  
    ax.spines["right"].set_visible(False)
    ax.spines["bottom"].set_visible(False)
    ax.spines["left"].set_visible(False)    

    plt.grid()
    plt.tight_layout
    plt.show()

plot_step_lda()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LnpA8uis-1614248839877)(output_27_0.png)]

降维后数据可视化展示

from matplotlib import pyplot as plt
# 可视化展示
def plot_step_lda():

    ax = plt.subplot(111)
    for label,marker,color in zip(
        range(1,4),('^', 's', 'o'),('blue', 'red', 'green')):

        plt.scatter(x=X_lda[:,0].real[y == label],
                y=X_lda[:,1].real[y == label],
                marker=marker,
                color=color,
                alpha=0.5,
                label=label_dict[label]
                )

    plt.xlabel('LD1')
    plt.ylabel('LD2')

    leg = plt.legend(loc='upper right', fancybox=True)
    leg.get_frame().set_alpha(0.5)
    plt.title('LDA on iris')

    # 把边边角角隐藏起来
    plt.tick_params(axis="both", which="both", bottom="off", top="off",  
            labelbottom="on", left="off", right="off", labelleft="on")

    # 为了看的清晰些,尽量简洁
    ax.spines["top"].set_visible(False)  
    ax.spines["right"].set_visible(False)
    ax.spines["bottom"].set_visible(False)
    ax.spines["left"].set_visible(False)    

    plt.grid()
    plt.tight_layout
    plt.show()

plot_step_lda()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6euOAiOX-1614248839878)(output_29_0.png)]

使用sklearn工具包中调用的线性判别分析降维

from sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDA

# LDA
sklearn_lda = LDA(n_components=2)
X_lda_sklearn = sklearn_lda.fit_transform(X, y)

def plot_scikit_lda(X, title):

    ax = plt.subplot(111)
    for label,marker,color in zip(
        range(1,4),('^', 's', 'o'),('blue', 'red', 'green')):

        plt.scatter(x=X[:,0][y == label],
                    y=X[:,1][y == label] * -1, # flip the figure
                    marker=marker,
                    color=color,
                    alpha=0.5,
                    label=label_dict[label])

    plt.xlabel('LD1')
    plt.ylabel('LD2')

    leg = plt.legend(loc='upper right', fancybox=True)
    leg.get_frame().set_alpha(0.5)
    plt.title(title)

    # hide axis ticks
    plt.tick_params(axis="both", which="both", bottom="off", top="off",  
            labelbottom="on", left="off", right="off", labelleft="on")

    # remove axis spines
    ax.spines["top"].set_visible(False)  
    ax.spines["right"].set_visible(False)
    ax.spines["bottom"].set_visible(False)
    ax.spines["left"].set_visible(False)    

    plt.grid()
    plt.tight_layout
    plt.show()

plot_scikit_lda(X_lda_sklearn, title='Default LDA via scikit-learn')

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UmKrXNQ5-1614248839881)(output_31_0.png)]

可见,一步步计算得出的结果与使用sklearn工具包降维后的结果是一致的

  • 6
    点赞
  • 49
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Python中的LDA(Latent Dirichlet Allocation)是一种主题建模算法,可以用于将高维的数据降维到更低维的表示。降维是为了消除数据中的冗余信息和噪声,以达到简化数据、提高模型性能、加快计算速度的目的。 使用Python中的LDA降维,主要步骤如下: 1. 导入必要的库,如gensim、nltk等。 2. 准备数据集,将文本数据进行清洗、分词、去停用词等预处理步骤。 3. 利用gensim库中的LdaModel函数建立LDA模型。在建模过程中,需要指定主题数、语料库、词典等参数。 4. 利用训练好的LDA模型对给定的数据进行降维,得到低维表示结果。 5. 可视化降维结果,通过绘制主题分布、主题词等图表,观察数据的潜在主题结构。 Python中的LDA降维方法广泛应用于文本挖掘、信息检索、推荐系统等领域。通过降维,可以发现数据中的潜在主题信息,提取关键词、主题分布等特征,帮助进一步分析和理解数据。同时,LDA降维可以简化数据表示,提高计算效率,便于后续建模和应用。 总之,Python中的LDA降维是一种有效的数据处理方法,可以将高维的数据转化为低维表示,发现数据中的潜在主题,并提取有用的特征。它在文本挖掘、信息检索等领域有广泛应用,为数据分析和建模提供了强有力的工具。 ### 回答2: Python LDA(Latent Dirichlet Allocation)是一种概率主题模型,它可以帮助我们将高维的数据降维到更低的维度。 在使用Python LDA进行降维时,首先需要将原始数据转化为文本格式。然后,我们可以使用Python中的gensim库来构建LDA模型。为了训练模型,我们需要指定一些参数,比如主题的数量、迭代次数等。 训练完成后,可以使用LDA模型对新数据进行降维。我们可以使用模型的transform方法将原始数据映射到主题空间中。这样,每个文档就会表示为一个向量,其中每个维度代表一个主题。这个向量就是我们降维后的表示。 在降维后,我们可以使用这些主题向量进行进一步的分析。比如可以计算主题之间的相似度,或者对文档进行聚类。可以使用Python中的sklearn库来实现这些操作。 总结来说,Python LDA可以帮助我们将高维数据降维到更低的维度。它可以将文本数据转化为主题向量表示,方便后续的分析任务。通过使用Python中的gensim和sklearn库,我们可以方便地构建和应用LDA模型。 ### 回答3: Python LDA(Latent Dirichlet Allocation)是一种常用的主题模型算法,主要用于文本数据的降维和主题分析。降维是指将高维的文本数据映射到低维空间,以达到简化数据和提取数据特征的目的。 Python LDA降维的基本步骤如下: 1. 数据预处理:包括文本清洗、分词、去除停用词等。对文本数据进行预处理可以消除噪声和冗余信息,为后续的降维提供干净的数据。 2. 构建词袋模型:将预处理后的文本数据转化为数值向量表示。可以使用CountVectorizer或TfidfVectorizer等工具来构建词袋模型。 3. 使用LDA进行训练:采用Python的gensim库中的LdaModel类进行训练。通过调整主题数量,可以得到合理的主题分布。 4. LDA降维:通过主题-词分布和文档-主题分布,将原始的文本数据降维为主题向量。这种降维方式保留了文本数据的主题特征,减少了维度。 对于降维的结果,可以使用可视化工具如matplotlib绘制主题分布的图表,帮助我们理解文本数据的主题结构。 Python LDA降维在文本挖掘、文本分类、信息检索等领域具有广泛的应用。它能够从大量文本数据中提取主题信息,并加以分析和利用。通过降维,我们可以在保留了关键信息的前提下,减少数据的复杂度,提高数据处理的效率和准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Clichong

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值