预训练模型分类体系
典型模型
Bert
Bert有两个训练任务,第一个任务是预测被mask的单词,第二个任务是句子级任务——句对预测。
上述图片中有两个特殊的地方,在句子输入中添加了[CLS]和[SEP],[SEP]的作用是区分两句话,[CLS]用于捕捉全局信息;
当使用Bert进行分类任务时,直接在Bert上拼接一个分类器就能执行分类任务;
SpanBert
预测一个范围内的所有词;
去除NSP预训练任务;
StructBert
XLNet
T5
GPT-3
预训练模型的扩展
Knowledge-Enriched PTMs
把知识图谱引进预训练模型中,如上图中,右图中的黄色内圈表示文本的全连接的图结构&#