**Transformer** 是由 Google 团队的 Ashish Vaswani 等人在 2017 年 6 月发表的论文 Attention Is All You Need 中提出的 NLP 经典之作,这个模型可以算是近几年来 NLP 领域的一个重大的里程碑,在它之前 seq2seq + Attention 就表现很强了,结果这篇论文一出来就引起了不小的轰动,它竟然不需要任何 RNN 等结构,只通过注意力机制就可以在机器翻译任务上超过 RNN,CNN 等模型的表现。
Transformer 和 RNN 比较
在机器翻译任务中,虽然说在 Transformer 之前 Encoder-Decoder + Attention 结构已经有很好的表现了,但是其中的 RNN 结构却存在着一些不足。
- 首先,RNN 模型不擅长并行计算。因为 RNN 具有序列的性质,就是当模型处理一个状态时需要依赖于之前的状态,这个性质不利于使用 GPU 进行计算,即使用了 CuDNN,RNN 在 GPU 上也还是很低效的。
- 而 Transformer 最大的优点就是可以高效地并行化,因为它的模型内部的核心其实就是大量的矩阵乘法运算,能够很好地用于并行计算,这也是 Transform