LSTM中隐层神经元的传播机制

相较于RNN,LSTM只是改变了隐含层中神经元在不同时刻的传播机制
这里写图片描述
将隐层某个神经元看成一个cell, 这个cell有3个输入,上一个时刻的隐层某神经元的保留状态 Ct1 ,上一个时刻的隐层某神经元输出的传递信息 ht1 , 当前时刻的样本 Xt , 该cell由3个gate(forget, input, output)控制。

一、通过忘记门决定从cell中丢失什么信息:

ft=sigmoid(Wfhht1+WfxXt+bf)

二、 通过输入门决定什么样的新信息被存放在cell中:

决定什么值将要更新:
it=sigmoid(Wihht1+WixXt+bi)

创建新的候选值向量:
Ct˜=tanh(Wchht1+WcxXt+bc)

确定更新信息:
Ct=ftCt1+itCt˜

三、通过输出门决定输出什么:

决定哪个部分将被输出:
ot=sigmoid(Wohht1+WoxXt+bo)

确定输出部分:
ht=ottanh(Ct)

本文参考资料http://www.open-open.com/lib/view/open1440843534638.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值