[预训练语言模型专题] BERT,开启NLP新时代的王者

本文介绍了BERT,Google AI于2018年推出的预训练语言模型,该模型刷新了多项NLP任务的榜单,甚至在某些任务上超越人类。BERT通过改进训练目标实现了深层双向语言模型训练,采用fine-tuning策略,简化了模型迁移。其主要贡献包括Masked LM和Next Sentence Prediction任务,预训练数据包括BookCorpus和English Wikipedia。BERT的出现开启了NLP的新时代。
摘要由CSDN通过智能技术生成

本文为预训练语言模型专题系列第五篇

前期回顾:[萌芽时代][风起云涌][文本分类通用技巧] 、[GPT家族]


感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为前期脚印,绿色框为本期介绍,欢迎大家留言讨论交流。

 

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)

本期将要介绍的就是在NLP领域无人不知,无人不晓的预训练语言模型BERT了,由Google AI在2018年底推出,刚出现就刷新了一大批榜单,甚至在一些任务上超过了人类的表现,令人惊艳。谷歌团队成员Thang Luong在推特上表示,BERT模型开启了NLP的新时代。就其效果、易用性、通用性各方面来说,在当时不愧称为预训练语言模型的王者,压服众多的模型。让我们花十分钟一起,跟着论文来体会BERT的设计思路和重点。

文章在一开始概括了当时的两种不同的预训练语言模型的策略,feature-based 策略及 fine-tuni

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值