详解LSTM (Long Short - Term Memory)网络

本文介绍了LSTM是如何解决RNN的长期依赖问题的,包括忘记门、输入门、更新和输出四个步骤。通过感性和理性的理解,帮助读者更好地掌握LSTM的工作原理。
摘要由CSDN通过智能技术生成

 

在LSTM的文章中最出名文章之一就是 Christopher Olah 的博文     感觉这篇博客图画的非常棒,公式也写的很清楚,但是缺失一些感性理解。

自己在看了七月在线寒小阳和练数成金对于LSTM的讲解,对于LSTM有了更深的理解,写一篇博客总结下。


目录

RNN引出LSTM的感性认知

LSTM原理(理性认知)

第一步:忘记门

第二步:输入门

第三步:更新

第四步:输出


 

 

RNN引出LSTM的感性认知

RNN解决了对之前的信息保存的问题。但是存在长期依赖的问题,也就是说,记忆量容量有限,间隔不断增大时,RNN 会丧失学习到连接如此远的信息的能力。这才引出了LSTM

先感性的理解下LSTM和RNN的区别:

  • LSTM的‘‘“记忆细胞’’被改造了
  • LSTM 改记忆的信息会一直传递,不该记得会被"门"截断

 

RNN的图示:

RNN的‘记忆细胞’图示:

LSTM的‘记忆细胞’图示:

 

 

LSTM原理(理性认知)

第一步:忘记门

决定从“细胞状态”中丢弃什么信息

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值