革命性提升-宇宙最强的NLP预训练BERT模型(附官方代码)

编辑 忆臻
公众号 | 机器学习算法与自然语言处理 yizhennotes

1.  Bert官方源码公开

终于是千呼万唤始出来,Google AI 发表于10月中旬的论文:

《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 》一下子在NLP领域击其千层浪。文中提出的BERT模型,在11项NLP任务(包括阅读理解,文本分类、推断,命名实体识别等)中都取得了start of art 的突破性成绩!

这个成绩着实吓死了一批研究人员,其中的一些任务也可以说宣布没有什么研究空间了。

截止发稿前,短短时间,BERT已经获得近8k star,可见其受关注程度。

2.  项目仓库包含的内容

  • 用于BERT模型架构的TensorFlow代码(主要是标准的Transformer架构)。

  • BERT-Base和BERT-Large模型小写和Cased版本的预训练检查点。

  • 论文里微调试验的TensorFlow代码,比如SQuAD,MultiNLI和MRPC。
    此项目库中的所有代码都可以直接用在CPU,GPU和云TPU上。

3.  大家关心的问题,是否支持其它语言(如汉语)

目前放出的预训练模型是英语的,我们大家肯定都会关心是否会有汉语或者其它语言预训练model的公布。

多语言模型支持的语言是维基百科上语料最大的前100种语言(泰语除外)。多语言模型也包含中文(和英文),但如果你的微调数据仅限中文,那么中文模型可能会产生更好的结果。

就是这里列出的1-60号语言:

https://meta.wikimedia.org/wiki/List_of_Wikipedias#All_Wikipedias_ordered_by_number_of_articles

4.  最后再看看BERT的屠榜和官方代码地址

地址点击:https://github.com/google-research/bert

论文(https://arxiv.org/abs/1810.04805)

作者公众号:


请关注和分享↓↓↓ 

机器学习初学者

QQ群:774999266或者654173748(二选一)

往期精彩回顾

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值