BERT详解

BERT模型基于Transformer架构,其基础版使用12层encoder,大型版本则使用24层。预训练阶段,BERT利用无标注语料进行MLM和NSP任务,其中MLM假设mask独立但实际并非如此。NSP任务包括主题预测和连贯性判断,有助于提升模型在下游任务的表现。为优化Bert在特定领域的效果,通常会进行领域适应和微调。同时,对于脱敏数据,也有策略将其用于BERT的训练。
摘要由CSDN通过智能技术生成

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
bert base使用12层encoder(不是transformer)
bert large使用24层encoder
在这里插入图片描述
在这里插入图片描述

Bert输入部分详细解读

在这里插入图片描述
cls、sep存在因为bert预训练任务中有nsp任务(判断两个句子之间的关系)
将cls的输出向量接一个二分类器,去做一个二分类任务
在这里插入图片描述
在这里插入图片描述

预训练之MLM详解

在这里插入图片描述
bert在预训练的时候,使用的是大量的无标注的语料
在这里插入图片描述
在这里插入图片描述在这里插入图片描述
认为mask是相互独立的,然而mask不是相互独立的
在这里插入图片描述

在这里插入图片描述

预训练之NSP任务详解

在这里插入图片描述
主题预测:两个样本是不是来自同一文档(很简单)
连贯性预测:两个段落是不是上下文关系
在这里插入图片描述

如何提升Bert下游任务表现

在这里插入图片描述
在这里插入图片描述
领域——>任务——>微调
在这里插入图片描述
bert是静态mask,我爱吃饭每次mask吃
在这里插入图片描述

脱敏数据如何使用bert

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值