BERT 基础

BERT是Google提出的预训练模型,基于Transformer的双向编码器,用于多种NLP任务,刷新了11项任务的记录。其创新点包括Masked LM和Next Sentence Prediction。BERT模型分为BASE和LARGE两种,通过预训练和微调,能理解更复杂的语境,如区分“to”的不同含义,提高搜索质量。BERT通过掩码技术实现双向语言模型训练,结合Sentence Embedding和Positional Embedding,为每个输入提供上下文和位置信息。
摘要由CSDN通过智能技术生成

BERT,Bidirectional Encoder Representations from Transformers,来自 Google AI Language 的论文:

[BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding](https://arxiv.org/pdf/ 1810.04805.pdf)

是在和 BooksCorpus 集上预训练模型,然后应用于其他具体任务上时再进行微调。

BERT 模型可以用于问答系统,情感分析,垃圾邮件过滤,命名实体识别,文档聚类等多种任务中,当时 BERT 模型在 11 个 NLP 任务上的表现刷新了记录,在自然语言处理领域引起了不小的轰动,这些任务包括问答 Question Answering(SQuAD v1.1),推理 Natural Language Inference(MNLI)等:

GLUE :General Language Understanding Evaluation
MNLI :Multi-Genre Natural Language Inference
SQuAD v1.1 :The Standford Question Answering Dataset
QQP
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值