cs224n学习4: Contextual Word Representations and Pretraining

Contextual Word Representations and Pretraining

BERT原理详解

从创新的角度来看,bert实并没有过多的构方面的创新点,其和GPT一样均是采用的 transformer的结构,相对于GPT来说,其是双向结构的,而GPT是单向的,如下图所示
在这里插入图片描述
elmo: 将上下文当作特征,但是无督的语料和我们真实的语料还是有区别的,不一定的符合我们特定的任务,是一种双向的特征提取。
openai gpt:就做了个改进,也是通过 transformer学习出来一个语言模型,不是固定的,通过任务finetuning用transformer代替elmo的llstm。
openai gpt:其实就是少了 encoder的transformer。当然也没了 encoder与 decoder 之间的 attention
openai gpt虽然可以进行 fine tuning,但是有些特殊任务与 pretraining输入有出入,单个句子与两个句子不一致的情况,很难解决,还有就是 decoder只能看到前面的信息。
其次bert在多方面的nlp任务表现来看效果都较好,具备较强的泛化能力,对于特定的任务只需要添加一个输出层来进行 fine-tuning即可。

BERT的预训练过程

  • Masked Language Model
  • Next Sentence Prediction

输入

在这里插入图片描述

微调

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值