PCA和LDA鸢尾花实现

PCA

运行结果没有粘贴,自行操作哦
下面展示一些 内联代码片

##用于3D可视化
from mpl_toolkits.mplot3d import Axes3D
##用于可视化图表
import matplotlib.pyplot as plt
##用于做科学计算
import numpy as np
##用于做数据分析
import pandas as pd
##用于加载数据或生成数据等
from sklearn import datasets
##导入PCA库
from sklearn.decomposition import PCA
##导入LDA库
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

接下来

iris = datasets.load_iris()
iris_X = iris.data   ##获得数据集中的输入
iris_y = iris.target ##获得数据集中的输出,即标签(也就是类别)
print(iris_X.shape)
print(iris.feature_names)
print(iris.target_names)

PCA

##加载PCA模型并训练、降维
model_pca = PCA(n_components=3)
X_pca = model_pca.fit(iris_X).transform(iris_X)
print(iris_X.shape)
print(iris_X[0:5])
print(X_pca.shape)
print(X_pca[0:5])

下面展示一些 内联代码片

model_pca = PCA(n_components=4)
X_pca = model_pca.fit(iris_X).transform(iris_X)
print("各主成分方向:\n",model_pca.components_)
print("各主成分的方差值:",model_pca.explained_variance_)
print("各主成分的方差值与总方差之比:",model_pca.explained_variance_ratio_)
print("累计方差贡献率:",(model_pca.explained_variance_ratio_).sum())
print("奇异值分解后得到的特征值:",model_pca.singular_values_)
print("主成分数:",model_pca.n_components_)
model_pca = PCA(n_components=3)
X_pca = model_pca.fit(iris_X).transform(iris_X)
print("降维后各主成分方向:\n",model_pca.components_)
print("降维后各主成分的方差值:",model_pca.explained_variance_)
print("降维后各主成分的方差值与总方差之比:",model_pca.explained_variance_ratio_)
print("累计方差贡献率:",(model_pca.explained_variance_ratio_).sum())
print("奇异值分解后得到的特征值:",model_pca.singular_values_)
print("降维后主成分数:",model_pca.n_components_)

fig = plt.figure(figsize=(10,8))
ax = Axes3D(fig,rect=[0, 0, 1, 1], elev=30, azim=20)
ax.scatter(X_pca[:, 0], X_pca[:, 1], X_pca[:, 2], marker='o',c=iris_y)

fig = plt.figure(figsize=(10,8))
##固定elev=0,改变azim为090180270
ax = Axes3D(fig,rect=[0, 0, 1, 1], elev=0, azim=0)
ax.scatter(X_pca[:, 0], X_pca[:, 1], X_pca[:, 2], marker='o',c=iris_y)
plt.show()

fig = plt.figure(figsize=(10,8))
##固定elev=90,改变azim为090180270
ax = Axes3D(fig,rect=[0, 0, 1, 1], elev=90, azim=0)
ax.scatter(X_pca[:, 0], X_pca[:, 1], X_pca[:, 2], marker='o',c=iris_y)
plt.show()


下面展示一些 内联代码片

model_pca = PCA(n_components=2)
X_pca = model_pca.fit(iris_X).transform(iris_X)
print("降维后各主成分方向:\n",model_pca.components_)
print("降维后各主成分的方差值:",model_pca.explained_variance_)
print("降维后各主成分的方差值与总方差之比:",model_pca.explained_variance_ratio_)
print("累计方差贡献率:",(model_pca.explained_variance_ratio_).sum())
print("奇异值分解后得到的特征值:",model_pca.singular_values_)
print("降维后主成分数:",model_pca.n_components_)
fig = plt.figure(figsize=(10,8))
plt.scatter(X_pca[:, 0], X_pca[:, 1],marker='o',c=iris_y)
plt.show()

LDA
下面展示一些 内联代码片

##载入LDA模型,设置n_components=3
model_lda = LinearDiscriminantAnalysis(n_components=3)
X_lda = model_lda.fit(iris_X, iris_y).transform(iris_X)
print("降维后各主成分的方差值与总方差之比:",model_lda.explained_variance_ratio_)
print("降维前样本数量和维度:",iris_X.shape)
print("降维后样本数量和维度:",X_lda.shape)

model_lda = LinearDiscriminantAnalysis(n_components=2)
X_lda = model_lda.fit(iris_X, iris_y).transform(iris_X)
print("降维后各主成分的方差值与总方差之比:",model_lda.explained_variance_ratio_)
print("降维前样本数量和维度:",iris_X.shape)
print("降维后样本数量和维度:",X_lda.shape)
fig = plt.figure(figsize=(10,8))
plt.scatter(X_lda[:, 0], X_lda[:, 1],marker='o',c=iris_y)
plt.show()
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值