ML算法
janehand
这个作者很懒,什么都没留下…
展开
-
线性判别分析Linear Discriminant Analysis
LDA是一种监督降维的方法,直觉上,我们希望降维之后同一类数据之间的方差要小,类间方差要大。LDA的目的就是学出一个投影矩阵,原始数据, 降维后的数据 。 首先,从Kmeans谈起。kmeans目标函数为, 写成矩阵trace: , 记作 , 称为类内方差矩阵within class variance matxix。类似的还可以定义类间方差矩阵between c...原创 2018-12-13 20:22:22 · 318 阅读 · 0 评论 -
从主坐标分析(PCO)到kernel PCA
Principal coordinate analysis PCA是一种经典的降维方法,相信大家都很熟悉PCA的原理了,PCO其实只是PCA换一种角度来做,都是在做奇异值分解。PCA做法:原始数据矩阵 , , 先做中心化处理得到 ,计算方差矩阵 ,然后计算 的最大 个特征值对应的特征向量,然后和原始特征相乘,即得到降维的结果。为了更清楚的显示它的本质,将这个过程表示成矩阵。 ...原创 2019-01-25 10:23:39 · 3197 阅读 · 1 评论