原文链接
本文是香港中文大学和腾讯AI实验室2018年在ACL上发表的论文
摘要
本文模型为三层结构,最下面一层为双向LSTM,最上一层为CNN,替代基于注意机制的RNN 去提取最重要的分类特征,由于 CNN 很难捕捉目标实体信息,所以本文提出了一个特征变换组件来将实体信息引入到单词的语义表示当中。但这个特征变换过程可能会使上下文信息丢失。所以本文又提出了一种“上下文保留”机制,可将带有上下文信息的特征和变换之后的特征结合起来,即中间层本文提出的CPT(Context-Preserving Transformation)结构。本文提出的模型T-net整体结构如左图所示。
模型介绍
1)Bi-directional LSTM Layer
最下层为双向LSTM层,在这一层输入目标句子的词向量表示,输出具有上下文信息的词向量表示。
2)Context-Preserving Transformation
这部分