屏蔽预训练模型的权重。 只训练最后一层的全连接的权重。_BERT模型

本文是对@张俊林博客的总结,介绍了BERT模型的两个阶段——语言模型预训练和Fine-tuning。BERT通过预训练在大量文本上学习通用语言表示,然后针对特定NLP任务进行微调,如NER和问答,在11项任务中取得最佳成绩。文章还简述了语言模型(LM)的概念,特别是神经网络语言模型(NNLM)的基本原理,即预测句子中单词出现的概率,以判断句子是否合理。
摘要由CSDN通过智能技术生成

我发现如果不对吸收的知识进行总结,隔一段时间又会忘记,重来,真是无限的循环

这篇文章是读了 @张俊林 https://zhuanlan.zhihu.com/p/49271699 之后的总结。

BERT模型是一个两阶段模型,1.语言模型预训练(一般NLP中的预训练都是采用语言模型的任务来做) 2.使用Fine-tuning 模式解决下游任务。在11项NLP tasks中取得了state-of-the-art的结果,包括NER、问答等领域的任务。

首先了解一下什么是LM(language model)语言模型

直观的解释就是判断这是不是人话:P(猫喜欢吃鱼)>P (鱼喜欢吃猫),一般而言,P的核心思想是根据句子前面的一系列前导单词预测后面跟哪个单词的概率大小,句子中的每个单词都有根据上文预测自己的过程,把这些所有单词的概率乘起来,数值越大,越像一句人话。LM有很多方法,主要介绍NNLM。

1) 神经网络语言模型(NNLM)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值