引言
Pengfei Liu等人在2016年的IJCAI上发表的论文,论文提到已存在的网络都是针对单一任务进行训练,但是这种模型都存在问题,即缺少标注数据,当然这是任何机器学习任务都面临的问题。
为了应对数据量少,常用的方法是使用一个无监督的预训练模型,比如词向量,实验中也取得了不错的效果,但这样的方法都是间接改善网络效果。
作者提出了一种新的方法,将多个任务联合起来训练,用来直接对网络进行改善,基于RNN设计了三种不同的信息共享机制进行训练,并在四个基准的文本分类任务中获得了较好的效果。
内容
网络结构
Standard LSTM
最为常见的LSTM结构,利用前面的LSTM网络进行特征提取,后接一个softmax进行分类。
Model-I: Uniform-Layer Architecture
对于每个任务,共享一个LSTM层和Eembedding层,同时每个任务都拥有自己的Eembedd