【动手学习深度学习】9 循环神经网络(先验知识、RNN、GRU、LSTM etc.)

目录

9.1 序列模型

9.2 文本预处理

9.3 语言模型

9.4 循环神经网络

9.5 门控循环单元(GRU)

9.6 LSTM

9.7 深层循环神经网络 

9.8 双向循环神经网络 


9.1 序列模型

方案A——马尔可夫假设:假设当前数据只与t个过去数据点相关 

方案B——潜变量模型:引入潜变量ht来表示过去的信息

9.2 文本预处理

步骤:

1、将数据集读取搭配由多条文本行组成的列表中

2、每个文本序列被拆分成一个标记列表

3、构建一个字典,通常也叫做词汇表(vocabulary),用来将字符串类型的标记映射到从0开始的数字索引中

4、将每一条文本行转换成一个数字索引列表

9.3 语言模型

eg:Bert、GPT

1、使用计数来建模

2、N元语法 引入马尔可夫假设

9.4 循环神经网络

  • 对隐状态使用循环计算的神经网络称为循环神经网络(RNN)。

  • 循环神经网络的隐状态可以捕获直到当前时间步序列的历史信息。

  • 循环神经网络模型的参数数量不会随着时间步的增加而增加。

  • 我们可以使用循环神经网络创建字符级语言模型。

  • 我们可以使用困惑度来评价语言模型的质量。

9.5 门控循环单元(GRU)

能关注的机制(更新门)

能遗忘的机制(重置门)

9.6 LSTM

忘记门:将值朝0减少

输入门:决定不是忽略掉输入数据

输出门:决定是不是使用隐状态

9.7 深层循环神经网络 

使用多个隐藏层来获得更多的非线性性

9.8 双向循环神经网络 

取决于过去与未来的上下文

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值