Bert学习笔记

文章信息

**原文:**BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

文章链接:
https://arxiv.org/abs/1810.04805

源码:

GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

摘要

Bert :Bidirectional Encoder Representiaions from Transformers.

目的:旨在通过大量无标签文本训练,从中获取到语义信息。用户只需在预训练好的模型后面加上相应输出层,即可完成相应任务。

结果:该模型的提出,在11个自然语言任务上,获得了很不错的结果。

模型训练方式(MLM、NSP)

MLM :

a) 类似于英语中的完型填空。给定一个文本,随机遮掩住(Mask)一些词,通过反复训练使得模型能够理解文本语义,从而正确预测出Mask掉的词。

b) 在实际模型训练中,对于单样本, 首先随机选取15%的词(token)作为Mask备选,其次对于这备选词,在随机选取80%的词进行Mask,10%的词保持不变,10%的词随机替换为词库中的词。

NSP
给定一篇文章中的两句华,判断第二句话是否紧跟着第一句话后面。

模型

只用到了Transformer的编码部分:

单个编码块包括:多头注意力、残差链接并LayerNormalization、两层全连接层(其中第一层主要用于将输入特征映射到高维表示,进一步提取相关信息。第二层则用于降维至原始维度)加残差连接并LayerNormalization。

在这里插入图片描述

​输入层:
在这里插入图片描述

模型输入=Position Embedding + Segment Embeddings + Token Embeddings

Position Embedding
在这里插入图片描述
位置嵌入采用正弦、余弦相混合的方式,其中pos代表词的位置,而 d 表示嵌入的维度,2i 表示嵌入维度的偶数维,2i+1则为奇数维。(2i<=d, 2i+1<=d)

预训练运行走向

1、数据处理:对输入样本进行Mask,并记住Mask掉的内容作为Label。
2、模型训练:将预处理后的数据进行相应Embedding,随后送入Bert模型进行训练。
3、模型保存:设置模型训练断点,保存模型。用于后续微调。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值