UNIVERSAL TRANSFORMERS读书笔记

Universal Transformer(UT)模型综合了Transformer的并行性和全局视野,以及RNN的递归特性。作者在每个位置添加动态停止机制,提升模型在多个任务的准确性。模型结构中,FFN被Transition Function替代,允许引入如卷积网络的高并行度结构。UT的时间维度体现在中间状态的不断调整,而非传统RNN的序列位置。模型使用Adaptive Computation Time(ACT)动态确定迭代次数,提高了效率和性能。
摘要由CSDN通过智能技术生成

ABSTRACT

作者提出了一种称为universal transformer(简称UT)的模型,总的来说,该模型就是集合了Transformer和基于RNN结构的神经网络的优点而提出的更加通用的Transformer模型,具体来说它主要结合了这两个模型中的如下优点:

UTs combine the parallelizability and global receptive field of feed-forward sequence models like the Transformer with the recurrent inductive bias of RNNs.

  1. 像Transformer这种前向传播模型中的高效的并行性和全局接收域(global receptive field)
  2. RNN模型中的递归的特性。
    (本人英语不好,并且处于Machine Translation的入门阶段,所以一些名词和术语翻译的可能不准确)
    除此之外,在模型中作者还为每个单独的位置添加了一个动态停止机制,并发现通过这种机制的加入,可以极大的提高该模型在几个不同任务上的准确性。

2 MODEL DESCRIPTION

该模型的具体结构如下所示:
UT结构图
在模型当中,我们可以看到,该模型还是经典的encoder+decoder的结构,在encoder和decoder中,之前transfo

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值