构建语义匹配和答案位置推断两个任务来辅助问题生成

题目Improving Question Generation with Sentence-Level Semantic Matching and Answer Position Inferring
关键字:问题生成;多任务学习,门控融合
摘要:考虑一个答案以及给定的上下文作为输入,利用序列模型进行问题的生成。这些方法存在的问题主要是在错误问题单词的生成和关键词生成以及从源中复制不相干的单词。我们认为缺失全局问题语义和探索答案位置不够好是这个问题的主要答案。本文我们提出了一个神经网络问题生成模型以及两个子模型:语句层面的语义匹配和答案位置推断。更进一步,我们强化译码器的初始状态通过利用基于答案的门控融合机制。

定义问题:
在这里插入图片描述
模型架构:

  • 基于基本的seq2seq+attention+copy架构,考虑一个门控融合机制,使得控制answer和源对于译码器的输入状态的控制。

  • 在这里插入图片描述

  • 在这里插入图片描述

  • 句子级别语义匹配任务:通过结合编码器的输出状态和译码器的输出状态,做concat判断当前两个状态结合是否是符合的,也就是是否是相关语义的;错误样本通过随机从原句子中产生不匹配信息。损失函数是二分类的交叉熵

  • 答案位置预测:通过做源信息和生成的问题的两个层的attention然后经过两层的双向LSTM网络最后就可以进行对答案位置的预测,具体loss是负对数。

  • 在这里插入图片描述

  • 三个任务的损失通过简单的超参设置就可以实现了,具体可能通过动态调整。

  • 在这里插入图片描述

论文总结:

  • 其中门控融合等于对于answer和input级别的信息做了一个调整。
  • 多任务之句子级别的语义匹配,主要考虑生成的问题的语义是否和前面所传递的语义是匹配的,本体应该是一个计算相似度的任务。
  • 任务中间存在三类不同信息,那么就可以考虑通过另外两类信息去对第三类信息进行预测,使得三者信息更加一致。
  • 可惜论文没有代码。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值