【sklearn学习】降维算法PCA和SVD

sklearn中的降维算法

主成分分析

独立成分分析

  • decomposition.PCA

class sklearn.decomposition.PCA(n_components=None, *, copy=True, whiten=False, svd_solver='auto', tol=0.0, iterated_power='auto', random_state=None)

PCA使用的信息衡量指标,就是样本方差,又称为可解释性方差,方差越大,特征所带的信息量越多。

n_components是降维后需要的维度,即降维后需要保留的特征数量

当该参数不填写任何值,则默认返回min(X.shape)个特征

>>> import numpy as np
>>> from sklearn.decomposition import PCA
>>> X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
>>> pca = PCA(n_components=2)
>>> pca.fit(X)
PCA(n_components=2)
>>> print(pca.explained_variance_ratio_)
[0.9924... 0.0075...]
>>> print(pca.singular_values_)
[6.30061... 0.54980...]

累计可解释方差贡献率曲线

pca_line = PCA().fit(X)

pca_line.explained_variance_ratio_

 n_components = 'mle' 可以自己选择最好的特征数量

>>> import numpy as np
>>> from sklearn.decomposition import PCA
>>> X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
>>> pca = PCA(n_components='mle')
>>> pca.fit(X)
PCA(n_components=2)

按信息量的占比选超参数

输入[0,1]之间的浮点数,并且让参数svd_solver = 'full'

pca_f = PCA(n_component=0.97, svd_solver='full'
pca_f = pca_f.fit(x)
X_f = pca_f.transform(X)

pca_F.explained_variance_ratio_.sum()

svd_solver的取值

“auto”:基于X.shape和n_components的默认策略来选择分类器

“full”:调用LAPACK分解器来生成精确完整的SVD,适合数据量不大或时间充足的情况

"arpack":调用ARPACK分解器来运行截断奇异值分解,可以加快运算速度

“randomized”:随机SVD,适合特征矩阵巨大,计算量庞大的情况。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值