自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 从主坐标分析(PCO)到kernel PCA

Principal coordinate analysis PCA是一种经典的降维方法,相信大家都很熟悉PCA的原理了,PCO其实只是PCA换一种角度来做,都是在做奇异值分解。PCA做法:原始数据矩阵 , , 先做中心化处理得到 ,计算方差矩阵 ,然后计算  的最大  个特征值对应的特征向量,然后和原始特征相乘,即得到降维的结果。为了更清楚的显示它的本质,将这个过程表示成矩阵。       ...

2019-01-25 10:23:39 3181 1

原创 conjugate prior共轭先验

在模型参数估计中,根据贝叶斯方法,已知参数的prior和likelihood,可以求得参数的posterior,我们通常希望先验和后验是共轭的,但为什么我们要采用共轭先验呢?我们在这里首先考虑 prior 的不同形式的区别。考虑高斯分布模型 :. 这里我们就是要求出 ,的 后验分布。根据贝叶斯公式:                            第一种做法: 先验是独立的。...

2018-12-18 14:21:26 1438

原创 线性判别分析Linear Discriminant Analysis

       LDA是一种监督降维的方法,直觉上,我们希望降维之后同一类数据之间的方差要小,类间方差要大。LDA的目的就是学出一个投影矩阵,原始数据, 降维后的数据 。       首先,从Kmeans谈起。kmeans目标函数为, 写成矩阵trace:,记作 ,  称为类内方差矩阵within class variance matxix。类似的还可以定义类间方差矩阵between c...

2018-12-13 20:22:22 318

原创 矩阵范数的次微分the subdifferential of some Matrix Norms

 方向导数     函数  在  处,方向 的方向导数:                                                 当方向导数 关于 线性的,即,那么我们称  在 这一点 Gâteaux differentive,并且导数.。次梯度与次微分       令  是一个凸的且合适的函数,即  (域空间非空),在 , 如果 满足,对任意,  ...

2018-12-11 20:02:54 4970 1

原创 概率pca(probabilistic pca)的理解

ppca原理    pca 可以从很多角度来理解,今天来谈一谈不太知名的ppca。所谓概率pca, 就是构建一个概率模型,对于一个数据 , 可以认为这样生成的,,   是维, , 是均值为0,方差为  的 维高斯随机向量,, 是均值为0 , 方差为  的  维高斯随机向量, 和  独立。 是未知参数,把  看成隐变量,对  降维的结果,就是要求出它在低维空间的隐变量,但是隐变量是随机变量,因此我...

2018-12-10 13:35:19 10564 5

原创 utf-8' codec can't decode byte 0x89 in position 0: invalid start byte

在运行tfrecord时,出现此错误,只要将tf.gfile.FastGFile(filenames[i], 'b')的‘r’改为‘rb’即可

2018-05-09 10:20:33 5802

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除