- 博客(1)
- 资源 (1)
- 收藏
- 关注
原创 文献阅读笔记:XLNet: Generalized Autoregressive Pretraining for Language Understanding
0.背景机构:谷歌大脑、CMU作者:Zhilin Yang、Zihang Dai发布地方:arxiv面向任务:Language Understanding论文地址:https://arxiv.org/abs/1904.09482论文代码:https://github.com/zihangdai/xlnet0-1. 摘要由于上下文双向建模的表达能力更强,降噪自编码类型中的典型代表BE...
2019-06-29 20:17:17 2158 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人