学习资料整理,关于Bert的学习路径需大致按照如下进行理解:
1. Vanilla RNN(即最基础的RNN结构)
The Unreasonable Effectiveness of Recurrent Neural Networks
2. Attention(nlp和图像领域关键模块)注意力机制
Attention and Augmented Recurrent Neural Networks
Neural Machine Translation (seq2seq) Tutorial (Tensorflow项目下的机器翻译readme)
3. Tranformer(Bert的结构基础单元,SOTA的翻译基础模型)
The Illustrated Transformer 译文