线性判别分析与主成分分析

成分分析是一种无监督降维,它识别数据差异最大的属性组合
线性判别分析是一种有监督降维,它识别在类别上差异最大的属性组合

import matplotlib.pyplot as plt

from sklearn import dataset
from sklearn.decomposition import PCA
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

# 加载数据集
iris = dataset.load_iris()
X = iris.data
y = iris.target
target_names = iris.target_names

# PCA 投影至二维平面
pca = PCA(n_component = 2)
X_r = pca.fit(X, y)
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
线性判别分析(Linear Discriminant Analysis,LDA)和主成分分析(Principal Component Analysis,PCA)都是常用的降维技术,但它们的目的和应用场景不同。 LDA 是一种监督学习的降维方法,它的目的是将数据映射到一个新的低维空间,使得不同类别的数据在新的空间中尽可能分开,同一类别的数据尽可能靠近。LDA 常用于分类问题,可以将高维数据降维到更低维的子空间,从而提高分类的性能。 PCA 是一种无监督学习的降维方法,它的目的是将数据映射到一个新的低维空间,使得数据在新的空间中的方差尽可能大。PCA 常用于数据压缩和可视化,可以在不损失太多信息的情况下将数据降维到更低的维度,从而提高计算效率和可视化效果。 总结来说,LDA 和 PCA 的区别主要在于: 1. 目的不同:LDA 是一种监督学习的降维方法,用于分类问题;PCA 是一种无监督学习的降维方法,用于数据压缩和可视化。 2. 应用场景不同:LDA 适用于有标签的数据集,PCA 适用于无标签的数据集。 3. 映射方式不同:LDA 通过确定投影向量来将数据映射到新的子空间,PCA 通过计算主成分来将数据映射到新的子空间。 4. 优化目标不同:LDA 优化类间距离和类内距离之间的比率,PCA 优化数据在新的子空间中的方差。 因此,在实际应用中,需要根据具体的问题和数据特点来选择合适的降维方法。如果数据集有标签,且需要进行分类,可以使用 LDA;如果需要进行数据压缩和可视化,或者数据集无标签,可以使用 PCA

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值