Transformer-XL 链接: 数据集 提取码: 6cgu 1.一 论文导读2.二 论文精读3.三 代码实现4.四 问题思索 《Transformer-XL:Attentive Language Models Beyond a Fixed-Length Context》 —Transformer-XL:不受固定长度限制的attention语言模型 作者:Zihang Dai 单位:Carnegie Mellon University 发表会议及时间:ACL 2019 一 论文导读 1.RNN 2.Transformer 3.前期知识 二 论文精读 三 代码实现 四 问题思索