bert 多义词_BERT模型浅析

BERT是一种基于Transformer的预训练语言模型,通过遮蔽语言模型和下一句预测解决多义词问题,提高了nlp任务的性能。它采用双向编码器表征,考虑单词的上下文,尤其在11项NLP任务中刷新了性能记录。
摘要由CSDN通过智能技术生成

9b77ae5d1263100d8538092c14ee39b2.png

Transformer模型自提出以来,已经在很多地方都取得了不错的成果,尤其是在nlp领域,它取得的成果是令人瞩目的,相比于之前的模型,transformer模型的attention机制更够更好地学习到句子当中单词与单词之间的联系,从而能够结合上下文语境来提高准确度。

更重要的是,transformer的这种attention机制是一种底层的方法,我们基于它可以构造出一些新的模型,而这些模型在nlp中往往有着出色的表现,下面介绍的BERT模型就是其中之一。

如果对Transformer模型还不熟悉的话,可以看我之前的文章:Transformer模型浅析

一、预训练过程

BERT是一种预训练语言模型,因此在介绍它之前,先简单说一下什么是nlp中的预训练过程。顾名思义,预训练就是在拿样本数据对模型进行训练之前做的训练,那么为什么要有预训练呢?其实在nlp的下游任务(比如机器翻译、阅读理解等)中,可以使用的样本数据是比较少的,因为这些任务需要的都是经过专门标注的数据,这样就使得拿这些样本数据直接训练出来的模型效果比较一般,因此就需要对模型进行预训练了。

预训练的目的就是,提前训练好这些下游任务中底层的、共性的部分模型,然后再用下游任务各自的样本数据来训练各自的模型,这样就可以极大地加快收敛速度。在这里举一个cv的

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值