RNN 循环神经网络简介

索引:

1.RNN 循环神经网络简介
2.LSTM RNN 长短期记忆循环神经网络简介
3.GRU RNN 门循环单元循环神经网络简介


一.RNN 循环神经网络简介

1990年, 美国认知科学家Jeffrey L. Elman 对jordan network进行了简化,并采用BP算法进行训练,便有了如今最简单的包含单个自连接节点的RNN 模型
循环神经网络,是指在全连接神经网络的基础上增加了前后时序上的关系,可以更好地处理比如机器翻译等的与时序相关的问题。
RNN的目的就是用来处理序列数据的。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题都无能无力。比如你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。又或者你要预测明天的股票价格,你就需要前段时间的股票价格作为输入。这些都需要每层之间的节点产生关联才能实现。
RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。
理论上,RNN能够对任何长度的序列数据进行处理。但是在实践中,为了降低复杂性往往假设当前的状态只与前面的几个状态相关,这也是RNN的局限性,当输入长度过长时,最早的输入可能会在神经网络反向传播时产生梯度爆炸或者梯度消失,导致RNN无法回忆起过于久远的记忆,会降低预测的准确率,于是就有了下面的 LSTM RNN网络。

单个RNN神经元结构:
在这里插入图片描述


二.LSTM RNN 长短期记忆循环神经网络简介

1997年,人工智能研究所的主任Jurgen Schmidhuber 提出长短期记忆(LSTM),LSTM使用门控单元及记忆机制大大缓解了早期RNN训练的问题。
LSTM RNN 和普通的 RNN 相比,多出了三个控制器(输入门,遗忘门和输出门)以便控制全局的记忆。
可以把 LSTM RNN 理解成一部电影,包含了主线和支线,当主线剧情进行时,如果某个支线对结局十分重要,输入门就会将这个支线按重要程度写入主线,在进行分析。如果此时支线改变了之前主线剧情的想法,那么遗忘门就会将之前某些主线剧情忘记,按比例替换成新支线剧情。最后,输出门会根据当前的主线剧情和支线剧情决定输出结果。
这样即使是经过了很长输入序列的的神经网络,也能记住久远的重要变化。

单个LSTM神经元结构:
在这里插入图片描述


三.GRU RNN 门循环单元循环神经网络简介

GRU 把 LSTM 中的三个门限(输入门,遗忘门和输出门),变成了两个(更新门和重置门)。
一般来说两者效果差不多,性能在很多任务上也不分伯仲,主要区别在于以下两点。
1.GRU参数更少,收敛更快。
2.LSTM参数比GRU参数多一些,数据量很大时LSTM效果会更好一些。

单个GRU神经元结构:
在这里插入图片描述


评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

什么都干的派森

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值