- 博客(7)
- 资源 (2)
- 收藏
- 关注
原创 Ternsorflow启动图的三个方法对比
Tensorflow启动图需要首先建立一个会话,本文对比三种启动图的方法,如下:sess = tf.Session():启动图需要显示指明使用哪个图,即sess.run(),或者run(session=sess)with tf.Session() as sess:在with的代码块内,使用sess作为默认图启动sess = tf.InteractiveSession(): 交互式,最方便,可以
2017-03-22 11:03:29 565
原创 Variance-Bias 分解
Variance-Bias 分解Notations:tt: 真实labelxx: 数据分布DD: 数据集标识y(x;Di)y(x;D_i): 在DiD_i上的预测函数E(t|x)E(t|x): 回归函数,即∫p(t|x)tdt\int p(t|x)tdt单个数据集下的回归函数下面首先证明,对于单个数据集DiD_i,当期望均方误差最小时,y(x;Di)=E[t|x]y(x;D_i)=E[t|x]。由期
2017-02-28 13:35:01 518
原创 EM算法与Varational Inference的联系
共同点:两者都是Nonparametric的方法,目的都在于不断提升lnp(x|θ)\ln p(x|\theta)或者lnp(x)\ln p(x)区别:EM算法通常既含有隐含变量,又含有参数θ\theta。 对于隐变量(E-step),采用求隐变量后验分布来减小KL散度,通常有解析解;对于参数(M-step),采用极大似然法提升Lower Bound,进而提升lnp(x|θ)\ln p(x
2017-02-22 11:15:05 789
原创 Cholesky分解对任意多维高斯分布进行采样
通过Cholesky分解精度矩阵,可以对任意高斯分布进行采样。同理,可以通过将标准圆上的点通过线性变换,绘制椭圆。
2017-01-12 17:19:31 2619 3
原创 Slice Sampling 简单推导
Slice Sampling 简单推导假设随机变量X∼p(x)X \sim p(x),我们想从该分布中采样,得到关于这个分布的信息(如均值、方差等),Slice Sampling切片采样是一种常用方法。令u=p(x)u=p(x),显然有0≤u≤10\leq u \leq 1。Slice Sampling从概率密度函数p(x)p(x) 所围成的面积里均匀采样,即是从p(x,u)p(x, u) 中采取均
2016-12-26 14:50:51 4666 1
原创 [竖立正确的贝叶斯三观] 关于predictive distribution 和非参贝叶斯的理解
[竖立正确的贝叶斯三观] 关于predictive distribution 和非参贝叶斯的理解
2016-10-24 23:20:52 2463
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人