scikit-learn之降维之LDA

线性判别分析LDA原理总结

LDA 既可以用于分类又可以用于降维,应用场景最多的还是降维。和 PCA 类似,LDA 降维基本也不用调参,只需要指定降维到的维数即可。

class sklearn.discriminant_analysis.LinearDiscriminantAnalysis

solver=’svd’:即求LDA超平面特征矩阵使用的方法。可以选择的方法有奇异值分解”svd”,最小二乘”lsqr” (仅适用于分类)和特征分解”eigen”。一般来说特征数非常多的时候推荐使用svd,而特征数不多的时候推荐使用eigen。主要注意的是,如果使用svd,则不能指定正则化参数shrinkage进行正则化;

shrinkage=None:正则化参数,可以增强 LDA 分类的泛化能力。如果仅仅只是为了降维,则一般可以忽略这个参数。默认是None,即不进行正则化。可以选择 “auto”,让算法自己决定是否正则化。当然我们也可以选择不同的 [0,1] 之间的值进行交叉验证调参。注意 shrinkage 只在 solver 为最小二乘 “lsqr” 和特征分解 “eigen” 时有效;

priors=None: array,shape (n_classes,) 类别权重,可以在做分类模型时指定不同类别的权重,进而影响分类模型建立。降维时一般不需要关注这个参数;

n_components=None:即我们进行 LDA 降维时降到的维数。在降维时需要输入这个参数。注意只能为 [1,类别数-1) 范围之间的整数。如果我们不是用于降维,则这个值可以用默认的None;

store_covariance=False: bool,额外计算每类样本的协方差矩阵,只有在 solver 为 “svd” 时起作用;

tol=0.0001: float,秩估计的阈值,只有在 solver 为 “svd” 时起作用;

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值