文献阅读笔记:RoBERTa:A Robustly Optimized BERT Pretraining Approach
0. 背景
机构:Facebook & 华盛顿大学 作者:Yinhan Liu 、Myle Ott 发布地方:arxiv 论文地址:https://arxiv.org/abs/1907.11692 论文代码:https://github.com/pytorch/fairseq
1. 介绍
RoBERTa 模型是BERT ...
转载
2021-06-30 09:15:31 ·
333 阅读 ·
0 评论