Multi-Task Deep Neural Networks for Natural Language Understanding的理解
今天分享的这篇论文是最近微软提出一个新的多任务深度神经网络模型——MT-DNN。MT-DNN结合了多任务学习和BERT的优点,并在10大自然语言理解任务上超越了BERT。 首先,学习文本的向量表示(语言嵌入)是许多自然语言理解任务的基础,因为该过程是由自然语言文本到语义向量表示的转化。目前,获得向量表示的方式有两种,一种是多任务学习,另一种是语言模型预训练。...


