属性components_,
输出降维后新的特征空间
print(PCA(2).fit(x).components_) # svd求出的新的特征空间
属性explained_variance_ratio_,
查看降维后每个新特征向量所占的信息量占原始数据总信息量的百分比,又叫做可解释方差贡献率
print(PCA(2).fit(x).explained_variance_ratio_)
# array([0.92461872, 0.05306648])
属性explained_variance_
查看降维后每个新特征向量上所带的信息量大小(可解释性方差的大小)
print(PCA(2).fit(x).explained_variance_)
# array([4.22824171, 0.24267075])
重要参数n_components
1.通过学习曲线选超参数
from sklearn.model_selection import cross_val_score
from sklearn.decomposition import PCA
from matplotlib import pyplot as plt
import numpy as np
# n_components 参数选择
# 1.学习曲线选超参数
pca_line = PCA().fit(x) # n_components不填 默认转换向量空间不降维
# cumsum 累加
plt.plot