循环神经网络

在这里插入图片描述
B站学习视频

1、RNN

  • 带时间序列的任务场景(语言识别、生成音乐、情感分析、DNA序列分析、机器翻译)

前后关联强,“前因后果”

在这里插入图片描述

  • 标准神经网络建模的弊端
    1、输入和输出数据在不同例子中可能有不同的长度
    2、一个像这样单纯的神经网络结构,它并不共享从文本的不同位置上学到的特征
    在这里插入图片描述

3、参数量巨大
在这里插入图片描述

4、没有办法体现时序上的“前因后果”

在这里插入图片描述
标准神经网络建模不适合带时间序列的任务场景。

  • RNN循环神经网络
    1、网络结构
    在这里插入图片描述
    单元
    在这里插入图片描述
    2、特点
    在这里插入图片描述
    3、前向传播

在这里插入图片描述
4、损失函数
在这里插入图片描述
整个序列的损失函数即将所有时间步的算是函数相加求和。
5、反向传播
在这里插入图片描述
在这里插入图片描述

  • RNN的缺点

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
W0:
在这里插入图片描述
Wx:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
任意时刻下的梯度公式:
在这里插入图片描述
Ws^(k-1)是导致可能梯度爆炸和梯度消失的主要原因。
在这里插入图片描述
在这里插入图片描述

2、LSTM

2.1 设计思路

在这里插入图片描述

2.2 前向传播过程

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.3 结合例子理解LSTM

(1)记忆细胞

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.4 RNN梯度消失回顾(公式推导)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.5 LSTM如何缓解梯度消失(公式推导)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3、GRU

3.1 结构

在这里插入图片描述
在这里插入图片描述

3.2 对比LSTM

在这里插入图片描述
在这里插入图片描述

3.3 举例理解

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.4 与LSTM区别

在这里插入图片描述

3.5 缓解梯度消失

在这里插入图片描述
门的设计可自由选择哪些部分记忆,哪些部分不记忆,连乘消除梯度消失,

  • 7
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值