bert原理篇

BERT是一种基于Transformers的双向预训练语言模型,通过无监督学习在大量语料上训练。模型分为BASE和LARGE两种配置,用于不同规模的任务。输入包括token、segmentation和position embeddings,预训练任务包括Masked LM和Next Sentence Prediction(NSP),前者预测被随机屏蔽的词,后者判断两个句子是否连续。
摘要由CSDN通过智能技术生成

背景

正如论文名:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding。BERT 是一个语言模型,通过大量的语料进行无监督训练,这称为预训练 Pre-training。再使用预训练好的参数和词向量表示参与实际任务。

BERT 的全名是 Bidirectional Encoder Representations from Transformers 。

Bidirectional :表示用的是双向语言模型,可以更好的融合上下文信息。

Transformers :表示使用 Transformers 作为特征提取器。

模型结构

在这里插入图片描述

  • 参数设置

    BERT BASE (L=12, H=768, A=12, Total Param-eters=110M)

    BERT LARGE (L=24, H=1024, A=16, Total Parameters=340M)

    其中:L 为 Transformer 的层数,H 为隐层大小,A 为 Transformer 中 self-attention heads 的个数, feed-forward/filter 大小为 4H,比如 3072 for the H = 768 and 4096 for the H = 1024。

    BERT BASE 的设置是为了和 GPT 作为

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值