详细情况请点击:使用MindStudio进行mpnet模型训练 - 知乎
预训练语言模型一直是自然语言处理领域的热门研究课题。这些模型,如 BERT,通常是在大规模的语料上经过精心设计的预训练任务,然后在下游任务上进行微调,以提高准确率。其中,BERT 中采用的是 Masked Language Modeling(MLM)和 XLNet 中采用的 Permuted Language Modeling(PLM)是两种具有代表性的预训练任务。虽然这两种方法都有各自的优势,但也存在局限性。因此,微软亚洲研究院的研究人员继去年提出 MASS 用于语言生成后, 又提出了一种全新的预训练模型 MPNet,它继承了 MLM 和 PLM 的优点,避免了它们的局限性。同时 MPNet 在 GLUE 和 SQuAD 等各种语言理解任务中也取得了较好的性能。