【Learning Notes】Quasi-recurrent Neural Networks

QRNN是一种结合RNN和CNN优点的神经网络结构,通过卷积操作替代循环,提高并行性和训练稳定性。在序列任务中,如情感分类、语言模型和机器翻译上表现出色,并在某些实现中相对于LSTM/GRU有速度优势。SRU是QRNN的一个特殊情况,具有简单的线性变换和highway连接,已在多个任务中取得优秀结果。
摘要由CSDN通过智能技术生成

QRNN [1] 是 Salesforce Research 团队(Update: 官方pytorch实现)提出的一种使用卷积操作替代传统的循环结构(vanilla RNN, LSTM, GRU)的新网络结构。QRNN 可以视为介于 RNN 和 CNN 之间的特殊结构。由于卷积操作没有循环结构时间上的依赖性,因此,QRNN 的计算并行度高;在训练时,卷积结构也要比循环结构更稳定。因此 ,QRNN 是一种潜在有用的网络,可以 drop-in 地替代各种 RNN。

笔者之前基于 Keras 写一个原型实现(见 github)。但不论学界还是工业界都对 QRNN 关注不多(大家倒是对 CNN 替代 LSTM/GRU 非常上心),最近发现一些比较详细的正向结果 [4],因此,笔者觉得有必要更认真的对待 QRNN。

1. 动机

RNN 在计算时,有时间的依赖性,并行度受限;而 CNN 受制于有限的 receptive field,因此,信息传递太慢。QRNN 希望能综合RNN和CNN的优点,尽量避免各自的缺陷。

2. 算法

仿照 LSTM 的计算公式,QRNN 的各个门(gate)的计算公式如下:

Z=tanh(WzX)

F=σ(W
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值