深度学习
一叶冉秋
这个作者很懒,什么都没留下…
展开
-
LSTM与GRU原理
LSTM原理:LSTM有多种变种形式,一个最简单的形式Cell由三个Gate(input,forget,output)和一个cell组成,Gate使用一个sigmoid激活函数,input和Cell state(C)通常使用tanh转换。Gates: 输入变换: 状态更新: 图片描述: 原文...转载 2018-07-30 20:00:03 · 1441 阅读 · 0 评论 -
Epoch,Batch Size 和 Iteration
iteration:数据更新一次参数batchsize:每次迭代的样本数目epoch:一个epoch就是将所有的训练样本全部通过网络训练一次案例:有1500个样本,batchsize=30,那么一个epoch需要50次iteration,即通过50次iteration可以过一遍训练数据,如果max iteration 为4500,那么就是3个epoch(4500/1500=3)...原创 2018-09-13 11:33:53 · 332 阅读 · 0 评论 -
MCMC && gibbs sampling
MCMC 蒙特卡洛方法1)输入马尔可夫链状态转移矩阵P,设定状态转移次数阈值n_1,需要的样本个数n_22)从任意简单概率分布采样得到初始状态值x_03)for t = 0 to n_1+n_2-1,从条件概率分布P(x|x_t)中采样得到样本x_t+1样本集(x_n1,x_n1+1,x_n1+2,...,x_n1+n2-1)为我们需要的平稳分布对应的样本集对于一个随意的平稳分布,如...转载 2018-09-26 15:23:19 · 285 阅读 · 0 评论