Bert学习笔记

 

bert是什么

 BERT被设计为通过在所有层的双向上下文上共同进行条件化来预训练未标记文本的深层双向表示。我们可以在仅一个附加输出层的情况下对经过预训练的BERT模型进行微调,以创建适用于各种任务(例如问题解答和语言推断)的最新模型,进而减少了对NLP任务精心设计特定体系结构的需求。BERT是第一个基于微调的表示模型,可在一系列句子级和字符级任务上实现最先进的性能,优于许多特定于任务的体系结构。

怎么使用bert

self-Attention layer

input

token embedding + segment embedding +position embedding

token embedding

分词

segment embedding

有些任务是两句话一起放入输入X,而segment便是用来区分这两句话的。在Input那里就是用“[SEP]”作为标志符号。而“[CLS]”用来分类输入的两句话是否有上下文关系。

position embedding

因为我们的网络结构没有RNN 或者LSTM,因此我们无法得到序列的位置信息,所以需要构建一个position embedding 。例如属于同一句话的用0表示,属于另一句话的用1表示

Layer Normalization

对每句话的embedding做归一化 ,但切记不是batch normalization

预训练模型

input

就是Self-Attention Layer的输入,利用字典将每一个字或者单词用数字表示,并转换成token embedding + segment embedding + position embedding。序列的长度一般有512 或者 1024

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值