BERT详解:bert文本分类怎么做的

bert是怎么进行预训练和微调的?

首先是用海量的数据预训练,数据可以是没有标签,在训练的时候就一个任务:就是随机mask部分字,然后用周围的字预测mask的字。这就是预训练的的过程。

用任务微调的时候。比如接一个文本分类,先加载初始的模型参数,然后根据有标签的数据进行训练计算loss去微调这个模型。适应下游的任务。

bert、bert_wwm、lattice_bert 区别:

bert有12个tranformer encoder block大约1亿参数 100M

bert会把字随机的mask掉,然后用周围的词去预测这个字,那么就是一个类似与word2vec中分类问题,预测这个字的时候是一个交叉熵的形式,用最后的cls向量,做一个多分类,输出每个字的概率然后选择概率最大的字进行选择。

bert输入两句话,然后这个段编码是进行一个第一句话是0 第二句话是1 把两句话区分开。

然后两句话是否匹配的的一个预测。也是对折两句话做了一个二分类:匹配或者不匹配。直接用最后的cls向量做了一个二分类。

假设你输入了一个字 在加载预训练模型的时候没有这个字的token ,bert会对没有见过的字进行特殊的向量赋值,token中是用 unk来表示,这个字的向量在bert中不会进行学习,保持原状。

bert预训练+微调的学习过程:

首先是输入一句话 padding到512长度或者长的会截断,然后一句话会有一个 句子开始是cls 末尾是sep,然后再加载预训

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

甜辣uu

谢谢关注再接再厉

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值