(Unfinished)RNN-循环神经网络之LSTM和GRU-04介绍及推导

(Unfinished)尚未完成

一、说明

  • 关于LSTMcell结构和一些计算在之前已经介绍了,可以点击这里查看
  • 本篇博客主要涉及一下内容:
    • LSTM前向计算说明(之前的博客中LSTM部分实际已经提到过,这里结合图更详细说明)

二、LSTM前向计算step by step

1、结构review

  • 我们知道RNN的结构如下图
    • 注意cell中的神经元可以有多个
      RNN 结构 -w150
  • LSTM就是对cell结构的改进
    LSTM结构
  • 符号说明
    符号说明
  • LSTM的关键就是state,就是对应上面的主线数据的传递
    LSTM state传递

2、前向计算step by step

(1) 决定抛弃的信息

  • 遗忘门 (forget gate layer)
  • σ Sigmoid激励函数,因为它的值域是(0,1)0代表遗忘所有信息,1代表保留所有信息

遗忘门 forget gate layer

(2) 决定存储的新信息

  • 包括两个部分
    • 第一个是输入门 (input gate layer),对应的是Sigmoid函数
    • 第二个是经过tanh激励函数

决定存储的新信息

(3) 更新state Ct1 Ct

  • ft 是经过Sigmoid函数的,所以值域在(0,1)之间, Ct1 点乘0-1之间的数实际就是对 Ct1 的一种缩放,(可以认为是记住之前信息的程度)
  • 然后加入进来的新的信息
    更新新的state

(4) 最后计算输出

  • 输出门(output gate layer)

计算输出

  • 最后再放一下之前的图, 数据流向可能更清晰

LSTM cell

三、GRU (Gated Recurrent Unit)

1、结构和前向计算

  • 如下图所示
    • 相比LSTMGRU结合了遗忘门和输入门
    • 同样也合并了cell statehidden state (就是LSTM中的ch
    • GRULSTM更加简单

GRU cell结构

Reference

原文地址: http://lawlite.me/2017/06/21/RNN-%E5%BE%AA%E7%8E%AF%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E4%B9%8BLSTM%E5%92%8CGRU-04%E4%BB%8B%E7%BB%8D%E5%8F%8A%E6%8E%A8%E5%AF%BC/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值