【转载】BERT相关论文、文章和代码资源汇总
原文来自:我爱自然语言处理 的BERT相关论文、文章和代码资源汇总
BERT最近太火,蹭个热点,整理一下相关的资源,包括Paper, 代码和文章解读。
1、Google官方:
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
一切始于10月Google祭出的这篇Paper, 瞬间引爆整个AI圈包括自媒体圈:
Github: https://github.com/google-researc
原创
2020-11-27 17:08:01 ·
324 阅读 ·
0 评论