14.深度学习之RNN进阶-2

本文深入探讨了长短期记忆(LSTM)网络,解释了LSTM为何能解决RNN的长期依赖问题,详细阐述了输入门、遗忘门和输出门的作用。此外,还介绍了LSTM的变体门控循环单元(GRU),以及其重置门和更新门的概念。最后,提到了深度循环神经网络和双向循环神经网络在处理序列数据时的应用。
摘要由CSDN通过智能技术生成

14.2 长短期记忆(LSTM)

14.2.1 LSTM的产生原因

  • RNN在处理长期依赖(时间序列上距离较远的节点)时会遇到巨大的困难,因为计算距离较远的节点之间的联系时会涉及雅可比矩阵的多次相乘,会造成梯度消失或者梯度膨胀的现象

14.2.2 LSTM

  • LSTM中引入了3个门,即:
    • 输入门(input gate)
    • 遗忘门(forget gate)
    • 输出门(output gate)
  • 以及记忆细胞

14.2.3 LSTM核心思想

  • 遗忘门
    • 作用对象:细胞状态
  • 输入门
    • 作用对象:细胞状态
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值