LSTM

LSTM:是RNN的一种

sigmoid:三个值分别sigmoid产生值:遗忘门f、输入门i、输出门o(总称:memory block(记忆块))

两个tanh层代表:cell的输入、输出

cell state:(方框内上方的那条)水平线

 

第一层:决定什么信息可以通过cell state。这个决定由“forget gate”层通过sigmoid来控制,就是确定保留多少值

第二层:包括两部分:

第一个是一个“input gate”层通过sigmoid来决定哪些值用来更新,第二个是一个tanh层用来生成新的候选值相加,得到了候选值。

最后一步是决定模型的输出:

首先是通过sigmoid层来得到一个初始输出,然后使用tanh将值缩放到-1到1间,再与sigmoid得到的输出逐对相乘,从而得到模型的输出。

总结:两个tanh函数:后者是对先前学到信息的压缩处理(前者是先确定丢掉与否,后者是压缩),sigmoid是不考虑记忆问题的输出,两者相乘。

tanh为了克服梯度消失问题;Sigmoid函数可以输出0或1,它可以用来决定忘记或记住信息

 

cell是权重共享,每个cell都一样,

xt和ht维度累加,作为下一层输入?

f,c,o值都是【0,1】,tanh是【-1,1】

 

h(t-1)是上一层输出,C(t-1)是上一层记忆。

h(t)是这一层输出,C(t)是这一层最新记忆。

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值