本文资源均收集自网络,方便大家研究和使用Google BERT模型
BERT
论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
论文解读:
- 站在BERT肩膀上的NLP新秀们(PART I)
- 站在BERT肩膀上的NLP新秀们(PART II)
- 如何可视化BERT?
- BERT相关论文、文章和代码资源汇总
- BERT_Paper_Chinese_Translation: BERT论文中文翻译版
- 谷歌发布NLP最先进预训练模型:开源BERT
- Bert时代的创新:Bert在NLP各领域的应用进展
- 深度思考 | 从BERT看大规模数据的无监督利用
- GPT,GPT2,Bert,Transformer-XL,XLNet论文阅读速递
- Bert 之后:预训练语言模型与自然语言生成
- BERT源码分析PART I
- BERT源码分析PART II
- 从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
- 如何评价 BERT 模型?
- BERT可视化
- 图解BERT
模型代码相关:
- BERT FineTuning with Cloud TPUs
- Google官方代码
- PyTorch-Transformers
- Pytorch implementation of Google AI’s 2018 BERT
- https://github.com/guotong1988/BERT-tensorflow
- BERT-keras
- allennlp
- 让其他模型也能够用BERT的嵌入表示
- 一大批中文(BERT等)预训练模型等你认领!
Bert应用
- BERT+BiLSTM-CRF-NER用于做ner识别
- 基于BERT预训练的中文命名实体识别TensorFlow实现
- NLP最强之谷歌BERT模型在智能司法领域的实践浅谈
- Google BERT 中文应用之《红楼梦》对话人物提取
- Google BERT 中文应用之春节对对联
- 手把手教你用BERT进行多标签文本分类
- google’s bert for language understanding
- BERT实战,多标签文本分类
- BERT实战,命名实体识别
- BERT-Classification-Tutorial
- BERT-BiLSMT-CRF-NER
- bert中文分类实践
- 使用预训练语言模型BERT做中文NER
- 基于BERT的中文序列标注
- BERT-train2deploy:BERT模型从训练到部署
- 详解BERT阅读理解