由于我的毕设要用PCANET提取特征,因此学习一下常见的机器降维方法。
1. PCA 最大化映射后数据的方差(无监督)
2. LDA 最小的类内间距,最大的类间间距(有监督)
原理推导:https://blog.csdn.net/itplus/article/details/12038357
3. 局部线性嵌入(LLE,非线性)它能够使降维后的数据较好地保持原有 流形结构 。它的思想就是在降维时保持局部的线性关系。
原理推导: https://www.cnblogs.com/pinard/p/6266408.html?utm_source=itdadao&utm_medium=referral
4. 拉普拉斯特征映射
在学习拉普拉斯矩阵的时候,涉及到图的概念,所以先学习一下图吧·····
下面的文字摘自于百度百科:
逻辑结构分为两部分:V和E集合。因此,用一个一维数组存放图中所有顶点数据;用一个二维数组存放顶点间关系(边或弧)的数据,这个二维数组称为邻接矩阵。邻接矩阵又分为有向图邻接矩阵和无向图邻接矩阵。
无线图的邻接矩阵一定是对称矩阵,顶点n的度就表示为n行非零元素的个数和
原理推导: https://blog.csdn.net/qrlhl/article/details/78066994
在其中,涉及广义特征值的概念 ,矩阵论的知识快忘完了~~~Ax=λBx ,以后慢慢看吧~~