BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding 论文翻译
BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding 论文翻译
由于课题中要求运用到bert,所以特地拜读了这篇论文,现将大部分内容简单翻译如下,仅供回顾学习之用,不通之处还请大家之处 不胜感激
论文原文地址:https://arxiv.org/pdf/1810.04805.pdf
摘要:介绍...
原创
2020-02-01 17:16:45 ·
461 阅读 ·
0 评论