BERT和Attention优质学习资源收集汇总

         2018年是NLP丰收的一年,这一年中比较大火的又是BERT,而BERT又和2017年大火的Transformer相关,本文就网上阐释比较好的几篇关于这两个模型的文章进行简单收集,方便想了解这两个模型的研究者阅读。

当然最权威的是官方论文和源码:

网上比较好的解读:

BERT运用实例:

  1. 奇点智能BERT实战教程
  2. AI赋能法律 | NLP最强之谷歌BERT模型在智能司法领域的实践浅谈
  3. bert-Chinese-classification-task
    bert
    中文分类实践
  4.  bert-chinese-nerhttps://github.com/ProHiryu/bert-chinese-ner
    使用预训练语言模型BERT做中文NER
  5. BERT-BiLSTM-CRF-NER
    Tensorflow solution of NER task Using BiLSTM-CRF model with Google BERT Fine-tuning
  6. bert-sequence-tagging: https://github.com/zhpmatrix/bert-sequence-tagging
    基于BERT的中文序列标注
  7. Google BERT 中文应用之春节对对联
  8. Google BERT 中文应用之《红楼梦》对话人物提取
  9. bert-as-service: https://github.com/hanxiao/bert-as-service
    将不同长度的句子用BERT预训练模型编码,映射到一个固定长度的向量上:Mapping a variable-length sentence to a fixed-length vector using pretrained BERT model
  10. bert_language_understanding: https://github.com/brightmart/bert_language_understanding
    BERT
    实战:Pre-training of Deep Bidirectional Transformers for Language Understanding: pre-train TextCNN
  11. sentiment_analysis_fine_grain: https://github.com/brightmart/sentiment_analysis_fine_grain
    BERT
    实战,多标签文本分类,在 AI Challenger 2018 细粒度情感分析任务上的尝试:Multi-label Classification with BERT; Fine Grained Sentiment Analysis from AI challenger
  12. BERT-NER: https://github.com/kyzhouhzau/BERT-NER
    BERT
    实战,命名实体识别: Use google BERT to do CoNLL-2003 NER !
  13. BERT、GPT-2这些顶尖工具到底该怎么用到我的模型里

第三方BERT实现代码:

  1. pytorch-pretrained-BERT: https://github.com/huggingface/pytorch-pretrained-BERT
    Google
    官方推荐的PyTorch BERB版本实现,可加载Google预训练的模型:PyTorch version of Google AI's BERT model with script to load Google's pre-trained models
  2. BERT-pytorch: https://github.com/codertimo/BERT-pytorch
    另一个Pytorch版本实现:Google AI 2018 BERT pytorch implementation
  3. BERT-tensorflow: https://github.com/guotong1988/BERT-tensorflow
    Tensorflow
    版本:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
  4. bert-chainer: https://github.com/soskek/bert-chainer
    Chanier
    版本: Chainer implementation of "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"
  5. BERT-keras: https://github.com/Separius/BERT-keras
    Keras
    : Keras implementation of BERT with pre-trained weights
  6. tbert: https://github.com/innodatalabs/tbert
    PyTorch port of BERT ML model

本文资源收集中参考了网上很多博客、知乎帖子以及AINLP微信公众号,在此对这些文章的作者一并感谢,后面会持续更新看到较好资源。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值