PCA与LDA

共同点

  1. 降维方法

    • PCA和LDA都是数据降维的方式,它们都能通过某种变换将原始高维数据投影到低维空间。
  2. 数学原理

    • 两者在降维过程中都使用了矩阵特征分解的思想,通过对数据的协方差矩阵或类间、类内散度矩阵进行特征分解,找到数据中的主要变化方向或分类方向。
  3. 高斯分布假设

    • PCA和LDA在应用中通常都假设数据符合高斯分布,这一假设是最优的。

不同点

  1. 监督与非监督

    • PCA是一种无监督的降维方法,它不需要知道样本的类别标签。PCA的目标是通过寻找数据中的主成分(即方差最大的方向)来降低数据的维度。
    • LDA则是一种有监督的降维方法,它需要知道每个数据点对应的类别标签。LDA的目标是找到一种投影方式,使得投影后不同类别之间的数据均值距离最大,同时相同类别之内的数据方差最小。
  2. 降维的目标

    • PCA主要关注于找到数据中方差最大的方向,以最大化保留原始数据的信息量。
    • LDA则侧重于找到类间差异最大、类内差异最小的方向,以实现更好的分类效果。
  3. 降维的维度限制

    • PCA在降维时没有明确的维度限制,可以根据需要选择降维后的维度数。
    • LDA在降维时最多只能降到类别数k-1的维数,因为LDA需要至少保留一个维度来区分不同的类别。

在这里插入图片描述

在这里插入图片描述

  • 11
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值