相关视频:
RNN模型与NLP应用(7/9):机器翻译与Seq2Seq模型
RNN模型与NLP应用(8/9):Attention (注意力机制)
RNN模型与NLP应用(9/9):Self-Attention (自注意力机制)
Transformer模型(1/2): 剥离RNN,保留Attention
Transformer模型(2/2): 从Attention层到Transformer网络
BERT (预训练Transformer模型)
Transformer
Pytorch Seq2Seq Tutorial for Machine Translation
Pytorch Transformers from Scratch (Attention is all you need)