- 博客(2)
- 资源 (1)
- 收藏
- 关注
原创 文献阅读笔记:Cross-lingual Language Model Pretraining
0.背景机构:Facebook作者:Guillaume Lample、 Alexis Conneau发布地方:arxiv面向任务:Language Understanding论文地址:https://arxiv.org/abs/1901.07291论文代码:https://github.com/facebookresearch/XLM0-1 摘要最近的研究已经证明了生成预训练对于英...
2019-07-23 18:08:33 6079 1
原创 文献阅读笔记:Transformer-XL : Attentive Language Models Beyond a Fixed-Length Context
0.背景机构:CMU、谷歌大脑作者:Zihang Dai、Zhilin Yang发布地方:arxiv面向任务:Language Understanding论文地址:https://arxiv.org/abs/1901.02860论文代码:https://github.com/kimiyoung/transformer-xl0-1 摘要Transformer具有学习长程依赖关系的潜力...
2019-07-03 17:09:44 2688 3
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人