神经网络学习笔记(5):LSTM

LSTM

LSTM的架构:

学习门:

 

遗忘门:

 

记忆门:

 

应用门(输出门):

 

总结:

解释

遗忘门会接受长期记忆并遗忘一部分;

学习门会把短期记忆和事件放到一起作为我们最近学到的信息;

记忆门则把还没有遗忘的长期记忆和刚学到的新信息放到一起,以便更新长期记忆并将其输出;

使用门会把我们刚学到的信息和还没遗忘的长期记忆放到一起,从中作出预测并更新短期记忆。

Why tanh or sigmoid?

因为这样行得通,还有很多其他简单的或者复杂的结构:

(1)GRU门限回归单元:

他把遗忘门和学习门合并为更新门

然后把更新门的结果交由合并门处理

他只会返回一个工作记忆,而不是一对长短时记忆

 

(2)Peephole Connections窥视孔连接:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值