题目:Improving Question Generation with Sentence-Level Semantic Matching and Answer Position Inferring
关键字:问题生成;多任务学习,门控融合
摘要:考虑一个答案以及给定的上下文作为输入,利用序列模型进行问题的生成。这些方法存在的问题主要是在错误问题单词的生成和关键词生成以及从源中复制不相干的单词。我们认为缺失全局问题语义和探索答案位置不够好是这个问题的主要答案。本文我们提出了一个神经网络问题生成模型以及两个子模型:语句层面的语义匹配和答案位置推断。更进一步,我们强化译码器的初始状态通过利用基于答案的门控融合机制。
定义问题:
模型架构:
-
基于基本的seq2seq+attention+copy架构,考虑一个门控融合机制,使得控制answer和源对于译码器的输入状态的控制。
-
句子级别语义匹配任务:通过结合编码器的输出状态和译码器的输出状态,做concat判断当前两个状态结合是否是符合的,也就是是否是相关语义的;错误样本通过随机从原句子中产生不匹配信息。损失函数是二分类的交叉熵
-
答案位置预测:通过做源信息和生成的问题的两个层的attention然后经过两层的双向LSTM网络最后就可以进行对答案位置的预测,具体loss是负对数。
-
三个任务的损失通过简单的超参设置就可以实现了,具体可能通过动态调整。
论文总结:
- 其中门控融合等于对于answer和input级别的信息做了一个调整。
- 多任务之句子级别的语义匹配,主要考虑生成的问题的语义是否和前面所传递的语义是匹配的,本体应该是一个计算相似度的任务。
- 任务中间存在三类不同信息,那么就可以考虑通过另外两类信息去对第三类信息进行预测,使得三者信息更加一致。
- 可惜论文没有代码。