【Learning Notes】Quasi-recurrent Neural Networks

QRNN [1] 是 Salesforce Research 团队(Update: 官方pytorch实现)提出的一种使用卷积操作替代传统的循环结构(vanilla RNN, LSTM, GRU)的新网络结构。QRNN 可以视为介于 RNN 和 CNN 之间的特殊结构。由于卷积操作没有循环结构时间上的依赖性,因此,QRNN 的计算并行度高;在训练时,卷积结构也要比循环结构更稳定。因此 ,QRNN 是一种潜在有用的网络,可以 drop-in 地替代各种 RNN。

笔者之前基于 Keras 写一个原型实现(见 github)。但不论学界还是工业界都对 QRNN 关注不多(大家倒是对 CNN 替代 LSTM/GRU 非常上心),最近发现一些比较详细的正向结果 [4],因此,笔者觉得有必要更认真的对待 QRNN。

1. 动机

RNN 在计算时,有时间的依赖性,并行度受限;而 CNN 受制于有限的 receptive field,因此,信息传递太慢。QRNN 希望能综合RNN和CNN的优点,尽量避免各自的缺陷。

2. 算法

仿照 LSTM 的计算公式,QRNN 的各个门(gate)的计算公式如下:

Z=tanh(WzX)

F=σ(W
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值