自然语言处理中的预训练模型

本文探讨了预训练模型在自然语言处理中的发展,包括Bert、SpanBert、XLNet等典型模型及其扩展,如知识增强、多语言和特定语言模型。还讨论了模型压缩技术、预训练模型在下游任务的应用策略以及未来的研究方向,如任务定向预训练和知识迁移。
摘要由CSDN通过智能技术生成

预训练模型分类体系

在这里插入图片描述

典型模型

Bert

在这里插入图片描述
Bert有两个训练任务,第一个任务是预测被mask的单词,第二个任务是句子级任务——句对预测。
在这里插入图片描述
上述图片中有两个特殊的地方,在句子输入中添加了[CLS]和[SEP],[SEP]的作用是区分两句话,[CLS]用于捕捉全局信息;

当使用Bert进行分类任务时,直接在Bert上拼接一个分类器就能执行分类任务;

SpanBert

预测一个范围内的所有词;
去除NSP预训练任务;
在这里插入图片描述

StructBert

在这里插入图片描述

XLNet

在这里插入图片描述

T5

在这里插入图片描述

GPT-3

在这里插入图片描述

预训练模型的扩展

Knowledge-Enriched PTMs

在这里插入图片描述
把知识图谱引进预训练模型中,如上图中,右图中的黄色内圈表示文本的全连接的图结构&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值