BERT:nlp领域跨时代的预训练模型

BERT模型在2018年引领了NLP领域的变革,其预训练和微调机制、Transformer结构以及Masked LM和Next Sentence Prediction等技术,使得模型能适应多种NLP任务。BERT通过双向Transformer解决了传统词向量忽视语境的问题,预训练后的模型可用于各种任务的微调。
摘要由CSDN通过智能技术生成

2018年是nlp重大改革的一年,bert的横空出世使得未来nlp的发展有利跨时代的进步,其在多个领域的完美成功使nlp研究方向有了很大的改变,一直到现在很多比赛的榜单都是由bert或者其畸形霸占。本文让我们简单了解bert,看看它是如何达到如此成就的。

Bert:

bert其实并没想象中的那么复杂,只要了解其中的几个知识点和两幅图便可以知晓它的原理和思想。而bert与其他网络之间也有很多参考和改变,详细见前篇博客:Pre-training in nlp | Ripshun Blog

知识点:
  • contextual word representation 语义词表征
  • pre-training and fine-tuning 预处理和微调
  • transfromer
  • WordPiece:字面意思,把word拆成piece一片一片
  • (token,position,segment) embedding
  • Masked LM And Next Sentence Prediction (NSP)
contextual word representation

传统的词向量嵌入方法(word2vec等等)没有考虑词的语义,即一词多义。在ELMO之中注意到了这一点。ELMO通过双向LS

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值