论文笔记:BERT

一、这篇论文解决的问题

预训练模型

预训练的好处:可以利用大量的无标注数据

两种预训练的策略:

  1. 基于特征:预训练好的表示,作为额外的特征输入
  2. 基于微调:预训练好的模型,修改最后一层,然后直接在相应数据集上进行训练

相关工作的不足:

  1. GPT:单向
  2. ELMo:基于特征的预训练;没有用transformer

本文的核心:

  1. transformer编码器
  2. 双向
  3. MLM + NSP
  4. 基于微调

二、模型本身的要点

参数计算

嵌入层:30K x H

注意力部分:L个头

  1. Q、K、V:H x H x 3
  2. 输出:H x H
  3. 全连接1: H x 4H
  4. 全连接2: 4H x H

参数总量 = 30K x H + L x 12 x H x H

输入的表示

原始输入:[CLS] + 句子1 + [SEP] + 句子2

输入层最后的embedding = token embedding(词元和CLS、SEP) + segment embedding(区分SEP前后的句子) + position embedding(位置)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值