BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

摘要

我们介绍一种语言表示模型 B E R T BERT BERT,这是代表 t r a n s f o r m e r transformer transformer双向编码表示,

  • 设计 B E R T BERT BERT去从无标签样本中预训练深度双向表示,通过共同调节所有层的left and right context
  • 结果,预训练 B E R T BERT BERTmodel ,仅使用一个额外的输出层,来进行微调,对大量广泛的任务创造顶级的模型。比如,问答系统、语言推理、没有足够特定任务的架构调整。
  • B E R T BERT BERT是一个简单概率但强有力的。其在11个顶级的自然语言处理任务上获得了顶级的效果。包括将 G L U E GLUE GLUE得分推高到 80.5 80.5% 80.5

介绍

预训练语言模型很有效果,提升了很多自然语言处理任务。

包括

  • sentence-level tasks such as natural language inference
  • 句子级任务,自然语言推理。
  • paraphrasing 意译
  • 目的是预测句子间的关系,通过整体的分析它门。
  • token-level tasks: named entity recognition and question answering,
  • downstream task 下游任务
  • feature-based and fine-tuning: 基于特征和微调
  • 基于特征的方法**:ELMo、OpenAI GPT**
  • the auther use a a left-to-right architecture
  • 基于提出的 B E R T BERT BERT模型改善微调。

B i d i r e c t i o n a l E n c o d e r R e p r e s e n t a t i o n s f r o m T r a n s f o r m e r s . Bidirectional Encoder Representations from Transformers. BidirectionalEncoderRepresentationsfromTransformers.

  • 双向编码Transformers
  • a masked language model M L M MLM MLM
  • 这篇文章的贡献是

  • 在这里插入图片描述
  • 相关工作

  • Unsupervised Feature-based Approaches

  • 积极的研究领域是:广泛的学习词语的应用表示
  • coarser granularities 粗粒度
  • sentence embedding: 句子嵌入
  • paragraph embeddings: 文段嵌入
  • denoising 去噪
  • context-sensitive features: 上下文敏感特性
  • the robustness of 什么什么的稳健性

Unsupervised Fine-tuning Approaches

在这里插入图片描述

Transfer Learning from Supervised Data

从半监督学习中进行迁移学习
在这里插入图片描述

BERT

  • pre-training and fine-tuning
  • a multi-layer bidirectional Transformer encoder: 多层的 T r a n s f o r m e r Transformer Transformerencoder

Pre-training BERT

在这里插入图片描述

Masked LM

在这里插入图片描述

Pre-training data

在这里插入图片描述

Fine-tuning BERT

结论

在这里插入图片描述

总结

  • 慢慢的将各种 B E R T BERT BERT代码,全部 将各种代码,啥的偶跑完整都行啦的理由与打算,慢慢的将代码啥的全部都跑完整都行啦的理由与打算。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

big_matster

您的鼓励,是给予我最大的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值