BERT—NAACL
链接: 数据集 提取码: 6cgu
《BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding》
—BERT:语言理解中的预训练深度双向Transformer
作者:Jacob Devlin
单位:Google AI Language
发表会议及时间:NAACL 2019
补充:自然语言处理领域的经典之作
一 论文导读
1.语言模型与word Embedding
2.从Word Embedding到BERT
3.前期知识