自然语言处理笔记02 -- Bert模型解读和实战

本文介绍了BERT模型的位置嵌入、语言模型定义及其预训练方法,包括Masked LM和Next Sentence Prediction。还讨论了预训练语料的字典制作和训练参数。最后,阐述了如何使用BERT进行自然语言情感分类以及预训练与下游任务的关系。
摘要由CSDN通过智能技术生成

位置嵌入的含义

位置嵌入不仅仅是反应了时间序列信息,而且从直观上来看,将位置嵌入和其转置做点积,其结果如下。
在这里插入图片描述
即距离较近的字之间的相关性要大于距离较远字。所以其建立了时间维度上 的关联性。

语言模型的定义和BERT如何预训练语言模型

  1. 语言模型定义:什么是语言模型, 其实用一个公式就可以表示 𝑃(𝑐1,…,𝑐𝑚) , 假设我们有一句话, 𝑐1到𝑐𝑚 是这句话里的 𝑚 个字, 而语言模型就是求的是这句话出现的概率是多少.
  2. 预训练方式1:Masked LM
    就是随机遮盖或替换一句话里面任意字或词, 然后让模型通过上下文的理解预测那一个被遮盖或替换的部分, 之后做 𝐿𝑜𝑠𝑠 的时候只计算被遮盖部分的 𝐿𝑜𝑠𝑠 。
    在这里插入图片描述
  3. 预训练方式2:Next Sentence Prediction
    给出属于上下文的两句话,计算这两句话相关的概率
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值