深度学习系列(六) 循环神经网络之GRU、LSTM、双向循环 2020.6.23

前言

本节继续学习循环神经网络

  • GRU
  • LSTM
  • 双向循环神经网络

1、门控循环单元(GRU)

  • 当时间步数较大或者时间步较小时,循环神经⽹络的梯度较容易出现衰减或爆炸
  • 裁剪梯度可以应对梯度爆炸,但无法解决梯度衰减
  • 门控循环神经网络(gated recurrent neural network)的提出,正是为了更好地捕捉时间序列中时间步距离较大的依赖关系
  • 有GRU和LSTM两种

GRU引入重置门和更新门
在这里插入图片描述
重置门和更新门

  • 重置⻔有助于捕捉时间序列⾥短期的依赖关系
  • 更新⻔有助于捕捉时间序列⾥⻓期的依赖关系
    在这里插入图片描述
    候选隐藏状态
  • 当前时间步重置⻔的输出与上⼀时间步隐藏状态做按元素乘法(符号为⊙)
  • 将按元素乘法的结果与当前时间步的输⼊连结
  • 再通过含激活函数tanh的全连接层计算出候选隐藏状态
    在这里插入图片描述

隐藏状态

  • 上一时间步的隐藏状态和当前候选隐藏状态做个组合
    在这里插入图片描述
    实现
import d2lzh as d2l
from mxnet import nd
from mxnet.gluon import rnn
"""实现GRU"""
# 数据,周杰伦歌词
(corpus_indices, char_to_idx, idx_to_char, vocab_size) = d2l.load_data_jay_lyrics()

# 模型参数
num_inputs, num_hiddens, num_outputs = vocab_size, 256, vocab_size
ctx = d2l.try_gpu()
def get_params():
    def _one(shape):
        return nd.random.normal(scale=0.01, shape=shape, ctx=ctx)
    def _three():
        return (_one((num_inputs, num_hiddens)),
                _one((num_hiddens, num_hiddens)),
                nd.zeros(num_hiddens, ctx=ctx))
    W_xz, W_hz, b_z = _three()  # 更新门参数
    W_xr, W_hr, b_r = _three()  # 重置门参数
    W_xh, W_hh, b_h = _three()  # 候选隐藏状态参数
    # 输出层参数
    W_hq = _one((num_hiddens, num_outputs))
    b_q = nd.zeros(num_outputs, ctx=ctx)
    # 附上梯度
    params = [W_xz
  • 0
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值