(写在文章前,我是一个对NLP感兴趣的小白,这篇文章是阅读论文时的粗略笔记~~)
百度的ERNIE系列模型,其没有对网络模型本身进行结构上的大改动,而是着重于如何构造合理的预训练任务,以及如何更好地利用数据构造无监督的训练集。本文主要从各模型的原理、优点、缺点、解决了什么问题等方面来讲述百度ERNIE1.0\ ERNIE2.0\ ERNIE3.0的进化历程,并对比了模型之间的区别与联系。个人理解浅显,希望与读者交流。
ERNIE: Enhanced Representation through Knowledge Integration
Sun Y, Wang S, Li Y, et al. Ernie: Enhanced representation through knowledge integration[J]. arXiv preprint arXiv:1904.09223, 2019.
关键词: a multi-stage knowledge masking strategy ,对phrase(短语)和entity(实体)做mask,间接的加入知识图谱