- 博客(2)
- 收藏
- 关注
原创 《Reducing Word Omission Errors in Neural Machine Translation:A Contrastive Learning Approach》论文阅读笔记
Reducing Word Omission Errors in Neural Machine Translation:A Contrastive Learning Approach基本信息研究目的相关工作方法DEQ的介绍MDEQIntegrating Common DL Techniques with MDEQs实验结论Notes基本信息Authors:Zonghan Yang, Yong Cheng, Yang Liu, Maosong SunYear:2019From:ACL研究目的相关工
2021-03-09 18:30:15 416
原创 《Transformer-XL: Attentive Language ModelsBeyond a Fixed-Length Context》论文阅读笔记
Transformer-XL: Attentive Language ModelsBeyond a Fixed-Length Context基本信息研究目的相关工作方法实验结论Notes基本信息Authors:Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan SalakhutdinovYear:2019From:n/a研究目的提出一个Transformer-XL模型,可以建模长距离依赖,解决句子分割
2021-02-03 16:28:19 304
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人