线性判别分析LDA的数学原理(二)

本文对比了PCA和LDA在分类任务上的差异,重点探讨了LDA的线性预测能力和其局限性,包括最多能生成类别数减一维的子空间,对非高斯分布样本处理不佳,以及在依赖方差而非均值的分类信息时的效果问题。
摘要由CSDN通过智能技术生成

1.关于PCA和LDA分类对比

PCA是无类别信息,不知道样本属于哪个类,用PCA通常对全体数据操作。LDA有类别信息投影到类内间距最小&&类间间距最大。
首先我们应该明白这两个算法的原理是不一样的,PCA是选择投影后使得整个数据方差最大的方向来投影,假设就是方差越大,信息量越多,PCA是一种无监督算法,没有类别信息而LDA是选择投影后使得类内方差小而类间方差大的方向来投影,用到了类别信息,所以选择用哪种算法来降维应该是根据具体的目的和场景来的,如果目的就是分类,那么显然LDA的选择标准更合理,如果没有类别信息(无监督),那就只能选PCA,总之,两者选择投影的方向的标准是不一样的,看哪个和你的需要
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值