SRNN——RNN的新革命

新智元的这篇文章《比RNN快136倍!上交大提出SRNN,能做并行计算》已经对SRNN做了足够的介绍,简单说就是以下4步:

  1. 把整个序列分成n个子序列
  2. 并行的在每一个子序列上运行RNN(LSTM,GRU或者任何其他RNN单元都可以)
  3. 把每个子序列的输出作为新的序列,重复步骤1,2
  4. 上述过程可以重复k次,形成k层RNN序列,每层的RNN参数可以不同

因此,该结构可以实现高度的并行,整个序列中的顺序信息也不会丢失,论文中分类准确率优于现有的RNN结构。可能有不少人会感觉这真是一个可以从RNN自然而然得出的idea,但不得不说,在别人提出之前,你的思路却受着传统RNN结构的束缚。个人以为SRNN要比近年的QRNN,SRU,DCCNN什么的重要的多,说是RNN的革命也不为过。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值