LSTM 三重门背后的故事

LSTM 三重门背后的故事

在前面的文章中我们知道了基本的 RNN 很容易出现梯度消失的问题,并且列出了梯度消失的几个解决方案,其中包括 LSTM 模型,今天就来看看 LSTM 是怎样解决这个问题的。

本文知识点

  • LSTM 的结构

    • 为什么 LSTM 要有三重门?
    • 如何将三道门相连?
  • LSTM 的前向计算

  • 反向传播

  • LSTM 是如何解决梯度消失的

在文章的末尾会列出几个关于 LSTM 的面试真题,大家在学习完本节内容后可以用这些题目检验一下自己是否能够回答上来。

首先我们来看一下 LSTM 的结构。


LSTM: Long short-term memory 长短期记忆网络也是一种 RNN 结构,因为它也具有反馈连接。在结构上,它和基本 RNN 的区别在于多了三个门控单元和一个长期状态,这样的结构使它可以学习到数据的长期时间依赖性,可以解决基本 RNN 的梯度消失问题。LSTM 的应用也很广,可以用于图像,音频,视频,金融数据等多种领域。

1. LSTM 的结构

LSTM 的结构如下图所示:

7eIclW

用数学表达为:

$ it = \sigma (Wi h{t-1} + Ui x{t} + bi)$ $ ot = \sigma (Wo h{t-1} + Uo x{t} 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值