- 博客(6)
- 收藏
- 关注
原创 从主坐标分析(PCO)到kernel PCA
Principal coordinate analysis PCA是一种经典的降维方法,相信大家都很熟悉PCA的原理了,PCO其实只是PCA换一种角度来做,都是在做奇异值分解。PCA做法:原始数据矩阵 , , 先做中心化处理得到 ,计算方差矩阵 ,然后计算 的最大 个特征值对应的特征向量,然后和原始特征相乘,即得到降维的结果。为了更清楚的显示它的本质,将这个过程表示成矩阵。 ...
2019-01-25 10:23:39 3210 1
原创 conjugate prior共轭先验
在模型参数估计中,根据贝叶斯方法,已知参数的prior和likelihood,可以求得参数的posterior,我们通常希望先验和后验是共轭的,但为什么我们要采用共轭先验呢?我们在这里首先考虑 prior 的不同形式的区别。考虑高斯分布模型 :. 这里我们就是要求出 ,的 后验分布。根据贝叶斯公式: 第一种做法: 先验是独立的。...
2018-12-18 14:21:26 1456
原创 线性判别分析Linear Discriminant Analysis
LDA是一种监督降维的方法,直觉上,我们希望降维之后同一类数据之间的方差要小,类间方差要大。LDA的目的就是学出一个投影矩阵,原始数据, 降维后的数据 。 首先,从Kmeans谈起。kmeans目标函数为, 写成矩阵trace:,记作 , 称为类内方差矩阵within class variance matxix。类似的还可以定义类间方差矩阵between c...
2018-12-13 20:22:22 321
原创 矩阵范数的次微分the subdifferential of some Matrix Norms
方向导数 函数 在 处,方向 的方向导数: 当方向导数 关于 线性的,即,那么我们称 在 这一点 Gâteaux differentive,并且导数.。次梯度与次微分 令 是一个凸的且合适的函数,即 (域空间非空),在 , 如果 满足,对任意, ...
2018-12-11 20:02:54 5004 1
原创 概率pca(probabilistic pca)的理解
ppca原理 pca 可以从很多角度来理解,今天来谈一谈不太知名的ppca。所谓概率pca, 就是构建一个概率模型,对于一个数据 , 可以认为这样生成的,, 是维, , 是均值为0,方差为 的 维高斯随机向量,, 是均值为0 , 方差为 的 维高斯随机向量, 和 独立。 是未知参数,把 看成隐变量,对 降维的结果,就是要求出它在低维空间的隐变量,但是隐变量是随机变量,因此我...
2018-12-10 13:35:19 10618 5
原创 utf-8' codec can't decode byte 0x89 in position 0: invalid start byte
在运行tfrecord时,出现此错误,只要将tf.gfile.FastGFile(filenames[i], 'b')的‘r’改为‘rb’即可
2018-05-09 10:20:33 5821
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人