深度学习:循环神经网络RNN

目录

一、神经网络的历程

1.传统神经网络存在的问题

2.提出一种新的神经网络

二、RNN基本结构

1.RNN基本结构

2.RNN的独特结构

3.RNN的局限性


一、神经网络的历程

1.传统神经网络存在的问题

  • 无法训练出具有顺序的数据。模型搭建时没有考虑数据上下之间的关系。
  • 因为传统神经网络输入数据的时候是同时输入,同一层的数据之间没有顺序关系,所以对于连续性的数据没有很好的预测效果

 

2.提出一种新的神经网络

  • 为了解决传统神经网络的问题,提出了一种新的神经网络——RNN(Recurrent Neural Network)在处理序列输入时具有记忆性,可以保留之前输入的信息并继续作为后续输入的一部分进行计算。

 

二、RNN基本结构

1.RNN基本结构

  • 下方蓝色的是输入,
  • 中间的矩形是隐藏层,
  • 上方紫色的是输出层
  • 看成传统神经网络转了个方向比较好理解

 

2.RNN的独特结构

  • RNN叫循环神经网络
  • 那么它的循环在哪呢,就是它的独特结构
  • 最开始的时候会有一个类似于偏置项的h0
  • h0乘以一个w矩阵然后与输入的数据x乘以一个u矩阵得到的结果再加上偏置项然后传入激活函数得到h1
  • h1乘以一个v矩阵加上偏置项c的结果传入交叉熵激活函数,得到输出的y1
  • 依次循环下去,得到最终的yn
  • 这个yn就是结合了整个数据的特征
  • 注意:
    • 每一次训练中计算用的u,v,w,b都是一样的 ,训练完反向传播会进行更新
    • RNN结构中输入是x1, x2, .....xn,输出为y1, y2, ...yn,也就是说,输入和输出序列必须要是等长的

 

3.RNN的局限性

  • 当出现“我的职业是程序员,…,我最擅长的是电脑”。当需要预测最后的词“电脑”。
  • 当前的信息建议下一个词可能是一种技能,但是如果我们需要弄清楚是什么技能,需要先前提到的离当前位置很远的“职业是程序员”的上下文。
  • 这说明相关信息和当前预测位置之间的间隔就变得相当的大。
  • 在理论上,RNN绝对可以处理这样的长期依赖问题。
  • 人们可以仔细挑选参数来解决这类问题中的最初级形式,但在实践中,RNN则没法太好的学习到这些知识。
  • 这使得模型难以学习长距离依赖关系

  • 原因是:梯度会随着时间的推移不断下降减少,而当梯度值变得非常小时,就不会继续学习。​
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

吃什么芹菜卷

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值