【论文阅读】Semantic Graphs for Generating Deep Questions

Semantic Graphs for Generating Deep Questions

论文:https://arxiv.org/abs/2004.12704

代码:https://github.com/WING-NUS/SG-Deep-Question-Generation

任务

本文提出了深度问题生成(DQG)的问题,其目的是生成需要对输入段落的多个信息进行推理的复杂问题。

方法(模型)

为了捕捉文件的全局结构并促进推理,本文提出了一个新的框架,首先为输入的文件构建一个语义层面的图,然后通过引入一个基于注意力的GGNN(Att-GGNN)对语义图进行编码。之后,融合文档层面和图层面的表示,对内容选择和问题解码进行联合训练。

问题定义:
Q ‾ = a r g   m Q a x P ( Q ∣ D , A ) \overline{Q} = arg\ \underset{Q}max P(Q|D, A) Q=arg QmaxP(QD,A)

Q ‾ \overline{Q} Q:生成的问题

D:文档

A:答案

模型结构:

image-20210525200100849

三个模块:

  • semantic graph construction

    为输入构建DP(Dependency Parsing) or SRL-based semantic graph。

  • semantic-enriched document representation

    使用 Attention-enhanced Gated Graph Neural Network (Att-GGNN)学习语义图表示。

  • joint-task question generation

    通过节点级内容选择和单词级问题解码的联合训练来生成深度问题。

Semantic Graph Construction

实体之间的语义关系是决定询问什么以及它所包括的推理类型的有力线索。为了提炼出文档中的这种语义信息,本文使用基于SRL(语义角色标签)和DP-(依赖分析)的方法来构建语义图。

Semantic-Enriched Document Representations

本文分别通过基于RNN的段落编码器和新颖的Att-GGN图编码器对文档D和语义图G进行编码,然后将其融合,得到用于问题生成的语义丰富的文档表示。

使用 bi-directional Gated Recurrent Unit (GRU)编码上下文。

采用一种新的AttGGNN,通过聚合来自其邻居的信息来更新节点表征。

数据集

HotpotQA

性能水平&结论

image-20210529095642633

本文提出的模型P1和P2在BLEU评测上都表现出了最优的效果。

与采用门控自注意机制并使用与本文相同的解码器的B5模型相比,本文带有基于DP的语义图的模型(P2)在BLEU-4中性能提升显著。这表明了semantic-enriched文档表示的显著效果。

结论:

本文提出的框架结合了语义图来增强输入文件的表征,并通过与内容选择任务的联合训练来生成问题。在HotpotQA数据集上的实验表明,引入语义图大大减少了语义错误,而内容选择有利于对不相干的相关内容进行选择和推理,问题的质量提高显著提高。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

没有胡子的猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值