![](https://img-blog.csdnimg.cn/20190918140145169.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
手撕降维算法(推导+实现)
文章平均质量分 92
PCA、KPCA、LE、LDA......
Ghy817920
这个作者很懒,什么都没留下…
展开
-
局部线性嵌入(Locally Linear Embedding, LLE)
LLE将D维特征X=[x1,x2,⋯,xN]∈RD×N(xi∈RD)映射到d(d≪D)维空间中(Y=[y1,y2,⋯,yN]∈Rd×N),在原始空间X中的点有着局部线性保持的特性,即xi=j∈N(i)∑wjxj其中N(i)表示在原始空间X中xi的附近的点,相应的权重为wj,LLE希望在降维后的空间Y。............原创 2022-08-18 13:54:57 · 455 阅读 · 1 评论 -
拉普拉斯特征映射(Laplacian Eigenmaps, LE)
LE将D维特征X=[x1,x2,⋯,xN]∈RD×N(xi∈RD)映射到d(d≪D)维空间中(Y=[y1,y2,⋯,yN]∈Rd×N),使得在降维后的空间中,尽量使在原始空间X中近的点在新的空间Y中仍然近,远的仍然远。原创 2022-08-17 23:17:18 · 766 阅读 · 0 评论 -
线性判别分析(Linear Discriminant Analysis, LDA)
LDA将D维特征X=[x1,x2,⋯,xN]∈RD×N(xi∈RD)映射到d(d≪D)维空间中(Z=[z1,z2,⋯,zN]=WTX∈Rd×N,W=[w1,w2,⋯,wd]∈RD×d,wi∈RD),使得在降维后的空间中,尽量使同一类的数据聚集,不同类的数据尽可能分散,因此对于每个特征xi。.....................原创 2022-08-13 00:54:28 · 256 阅读 · 0 评论 -
主成分分析(Principal Components Analysis, PCA)
PCA将D维特征X=[x1,x2,⋯,xN]∈RD×N(xi∈RD)映射到d(d≪D)维空间中(Y=[y1,y2,⋯,yN]=WTX∈Rd×N,W=[w1,w2,⋯,wd]∈RD×d,wi∈RD),使得在降维后的空间中,特征的方差最大,即保留主成分。..............................原创 2022-08-11 20:04:51 · 388 阅读 · 0 评论