- 博客(2)
- 资源 (1)
- 收藏
- 关注
原创 文献阅读笔记:Deep contextualized word representations(ELMo)
0. 背景机构:Allen 人工智能研究所 & 华盛顿大学作者:Paul G发布地方:arxiv、NAACL 2018面向任务:word representation论文地址:https://arxiv.org/abs/1802.05365论文代码:https://github.com/allenai/bilm-tf。顺便安利该研究所的https://github.com/al...
2019-08-31 21:12:04 1144
原创 文献阅读:(UNILM)Unified Language Model Pre-training for Natural Language Understanding and Generation
0. 背景机构:微软作者:Li Dong、Nan Yang发布地方:arxiv面向任务:Natural Language Understanding and Generation论文地址:https://arxiv.org/abs/1905.03197论文代码:暂未0-1. 摘要本文提出一个能够同时处理自然语言理解和生成任务UNIfied pre-trained Language M...
2019-08-28 19:53:54 7446
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人