《动手学深度学习》 RNN & GRU & LSTM with gluon

RNN循环神经网络,时间步t的隐藏变量的计算由当前时间步的输入和上一个时间步的隐藏状态共同决定。GRU门控循环单元,引入了重置门和更新门的概念。重置门输出R与上一时间步的隐藏状态按元素乘法,产生候选隐藏状态,决定是否drop上一时间步的隐藏状态。更新们对上一步的隐藏状态以及候选隐藏状态做加权平均,产生当前时间步的隐藏状态。LSTM长短期记忆,引入输入门,遗忘门,输出门。记住有6个公...
摘要由CSDN通过智能技术生成

RNN

循环神经网络,时间步t的隐藏变量的计算由当前时间步的输入和上一个时间步的隐藏状态共同决定。

GRU

门控循环单元,引入了重置门和更新门的概念。
重置门输出R与上一时间步的隐藏状态按元素乘法,产生候选隐藏状态,决定是否drop上一时间步的隐藏状态。
更新们对上一步的隐藏状态以及候选隐藏状态做加权平均,产生当前时间步的隐藏状态。

LSTM

长短期记忆,引入输入门,遗忘门,输出门。
记住有6个公式。
三个门的输出I,F,O均由当前时间步的输入以及上一时间步的隐藏状态通过加权偏置并sigmoid后得到。
候选记忆细胞由当前时间步的输入以及上一时间步的隐藏状态通过加权偏置并tanh后得到。
记忆细胞由F与上一时间步的记忆细胞按元素相乘加上I与候选记忆细胞按元素相乘,F趋近于1而I趋近于0代表时间序列上有较长的依赖关系。
当前时间步的隐藏状态由O与tanh(记忆细胞)按元素相乘得到,可以控制当前是直接使用记忆细胞里的信息还是留在之后再使用。

代码

import d2lzh as d2l
import math
from mxnet import autograd, gluon, init, nd
from mxnet.gluon import loss as gloss, nn, rnn

(corpus_indices, char_to_idx
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值