论文笔记整理:王春培,天津大学硕士。
链接:https://arxiv.org/pdf/1912.00879.pdf
动机
本文主要聚焦问答系统(Q&A)的反问题---问题生成(Question Generation,Q&G)。问题生成的目的是在给定上下文和相应答案的情况下生成语义相关的问题,问题生成任务可分为两类:一类是基于规则的方法,即在不深入理解上下文语义的情况下手动设计词汇规则或模板,将上下文转换成问题。另一类是基于神经网络的、直接从语句片段中生成问题词汇的方法,包括序列-序列模型(seq-to-seq)、编码器解码器(encoder-decoder)等。本文讨论的是后一种基于神经网络的问题生成方法。
目前,基于神经网络的问题生成模型主要面临以下两个问题:(1)错误的关键词和疑问词:模型可能会使用错误的关键词和疑问词来提问;(2)糟糕的复制机制:模型复制与答案语义无关的上下文单词。本文旨在解决以上两个问题。
亮点
本文的亮点主要包括:
(1)以多任务学习的方式学习句子级语义
(2)引入答案位置感知。
概念及模型
本文提出,现有的基于神经网络的问题生成模型之所以出现上述两个问题是因为:
(1)解码器在生成过程中可能只关注局部词语义而忽略全局问题语义;
(2)复制机制没有很好地利用答案位置感知特征,导致从输入中复制与答案无关的上下文单词。为了解决这两个问题,作者提出以多任务学习的方