Coursera, Deep Learning 5, Sequence Models, week1 Recurrent Neural Networks

  

 

有哪些sequence model

  

 Notation:

  

 

  

 

RNN - Recurrent Neural Network

 

传统NN 在解决sequence input 时有什么问题?

  

 

RNN就没有上面的问题. 注意这里还提到了BRNN 双向RNN的概念。

  

 

激活函数 g1 经常用的是tanh, 也有用relu的但是不常用. 如果是binary classification 问题,g2就是sigmoid.

  

  

 

 Backpropagation through time

  

 

   

 

 

Difference types of RNNs

  

 

  

 Language model and sequence generation

language modelling 用来找出可能性最大的句子.

  

 

 

language model 训练好了以后,一个有趣的应用例子是自己创造句子, 也就是 sample novel sequences 

Sample novel sequences

  

 除了常见的word-level language model, 还有一种很不常见的character-level language model.

  

 

Vanishing gradient problem

因为RNN 每个word 最主要受到附近的word的影响,如果遇到下面图片里的setence 就处理不好. 遇到一个名词就需要记忆很久这个名词(cat)的单复数,直到遇到动词(was/were)这个不是RNN擅长的.

除了vanishing gradient 问题,还有exploding gradient 问题,但是相对来说 exploding gradient 好解决,solution 是gradient clipping, 具体是说gradient 的值太大了就clip according to max value (threshold). 

  

 

  

GRU - Gated Recurrent Unit

接下来就谈怎么解决vanishing gradient 问题。  

先来看basic RNN.

  

 在对比着看GRU

  

上面是为了好理解做的简化版的GRU,Full GRU是这样的   

 

LSTM 和GRU 怎么选择呢?没有优劣,不同的问题可能适用不同的算法。

LSTM 比 GRU 更复杂,但是GRU更简单所以更快。GRU 有两个gate, LSTM 有三个gate. 如果要选择一个,可以默认先选择LSTM

  

  

 

 

 BRNN - Bidirection RNN

 

下面的问题需要BRNN来处理

   

 

 实际应用中,BRNN + LSTM 的组合最常用

   

 

 Deep RNNs

  

 

 

 

Questions:

 

1. gate 的概念没有理解

2. LSTM 没有理解

 

转载于:https://www.cnblogs.com/mashuai-191/p/8921792.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值