PCA
运行结果没有粘贴,自行操作哦
下面展示一些 内联代码片
。
##用于3D可视化
from mpl_toolkits.mplot3d import Axes3D
##用于可视化图表
import matplotlib.pyplot as plt
##用于做科学计算
import numpy as np
##用于做数据分析
import pandas as pd
##用于加载数据或生成数据等
from sklearn import datasets
##导入PCA库
from sklearn.decomposition import PCA
##导入LDA库
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
接下来
iris = datasets.load_iris()
iris_X = iris.data ##获得数据集中的输入
iris_y = iris.target ##获得数据集中的输出,即标签(也就是类别)
print(iris_X.shape)
print(iris.feature_names)
print(iris.target_names)
PCA
##加载PCA模型并训练、降维
model_pca = PCA(n_components=3)
X_pca = model_pca.fit(iris_X).transform(iris_X)
print(iris_X.shape)
print(iris_X[0:5])
print(X_pca.shape)
print(X_pca[0:5])
下面展示一些 内联代码片
。
model_pca = PCA(n_components=4)
X_pca = model_pca.fit(iris_X).transform(iris_X)
print("各主成分方向:\n",model_pca.components_)
print("各主成分的方差值:",model_pca.explained_variance_)
print("各主成分的方差值与总方差之比:",model_pca.explained_variance_ratio_)
print("累计方差贡献率:",(model_pca.explained_variance_ratio_).sum())
print("奇异值分解后得到的特征值:",model_pca.singular_values_)
print("主成分数:",model_pca.n_components_)
model_pca = PCA(n_components=3)
X_pca = model_pca.fit(iris_X).transform(iris_X)
print("降维后各主成分方向:\n",model_pca.components_)
print("降维后各主成分的方差值:",model_pca.explained_variance_)
print("降维后各主成分的方差值与总方差之比:",model_pca.explained_variance_ratio_)
print("累计方差贡献率:",(model_pca.explained_variance_ratio_).sum())
print("奇异值分解后得到的特征值:",model_pca.singular_values_)
print("降维后主成分数:",model_pca.n_components_)
fig = plt.figure(figsize=(10,8))
ax = Axes3D(fig,rect=[0, 0, 1, 1], elev=30, azim=20)
ax.scatter(X_pca[:, 0], X_pca[:, 1], X_pca[:, 2], marker='o',c=iris_y)
fig = plt.figure(figsize=(10,8))
##固定elev=0,改变azim为0,90,180,270
ax = Axes3D(fig,rect=[0, 0, 1, 1], elev=0, azim=0)
ax.scatter(X_pca[:, 0], X_pca[:, 1], X_pca[:, 2], marker='o',c=iris_y)
plt.show()
fig = plt.figure(figsize=(10,8))
##固定elev=90,改变azim为0,90,180,270
ax = Axes3D(fig,rect=[0, 0, 1, 1], elev=90, azim=0)
ax.scatter(X_pca[:, 0], X_pca[:, 1], X_pca[:, 2], marker='o',c=iris_y)
plt.show()
下面展示一些 内联代码片
。
model_pca = PCA(n_components=2)
X_pca = model_pca.fit(iris_X).transform(iris_X)
print("降维后各主成分方向:\n",model_pca.components_)
print("降维后各主成分的方差值:",model_pca.explained_variance_)
print("降维后各主成分的方差值与总方差之比:",model_pca.explained_variance_ratio_)
print("累计方差贡献率:",(model_pca.explained_variance_ratio_).sum())
print("奇异值分解后得到的特征值:",model_pca.singular_values_)
print("降维后主成分数:",model_pca.n_components_)
fig = plt.figure(figsize=(10,8))
plt.scatter(X_pca[:, 0], X_pca[:, 1],marker='o',c=iris_y)
plt.show()
LDA
下面展示一些 内联代码片
。
##载入LDA模型,设置n_components=3
model_lda = LinearDiscriminantAnalysis(n_components=3)
X_lda = model_lda.fit(iris_X, iris_y).transform(iris_X)
print("降维后各主成分的方差值与总方差之比:",model_lda.explained_variance_ratio_)
print("降维前样本数量和维度:",iris_X.shape)
print("降维后样本数量和维度:",X_lda.shape)
model_lda = LinearDiscriminantAnalysis(n_components=2)
X_lda = model_lda.fit(iris_X, iris_y).transform(iris_X)
print("降维后各主成分的方差值与总方差之比:",model_lda.explained_variance_ratio_)
print("降维前样本数量和维度:",iris_X.shape)
print("降维后样本数量和维度:",X_lda.shape)
fig = plt.figure(figsize=(10,8))
plt.scatter(X_lda[:, 0], X_lda[:, 1],marker='o',c=iris_y)
plt.show()