论文笔记--From Answer Extraction to Answer Generation for Machine Reading Comprehension (S-Net)

First published on indexfziq.github.io at 2019-01-17 19:10:40.

Introduction

本文出自微软亚研院,一作是北航的Chuanqi Tan, 代码没有公开,链接为台湾的一位同学用CNTK实现的代码。首次使用了Seq2Seq模型对MS-MARCO阅读理解数据集进行答案生成,比较符合MS-MARCO的本意,同时定义了先抽取再生成的框架,在R-Net的基础上有一定的提升。

模型在MS-MARCO V1的排名是第三,效果与抽取式的模型结构并没有太大的提升,这也让人怀疑Seq2Seq的作用到哪里去了。文章有几处疑点,一是Attention Pooling时,公式有些问题;二是Seq2Seq的输入到底是什么,如果出现答案来自于多篇文章的情况,输入还是按照答案-文档对来做的吗?

Motivation

这篇文章的动机就是抽取式的网络结构并不适合微软阅读理解数据集,有很多情况下,答案需要根据问题和文档组合或者生成。如图所示,除了第一种情况,其他都不能简单的抽出来。

在这里插入图片描述

Contribution

  • 为多篇章阅读理解(或者说生成式)提出了一个先抽取再生成的框架;
  • 在抽取的模块,采用多任务学习,利用Page ranking这个辅助任务帮助抽取答案片段;
  • 第一个将序列到序列模型应用到阅读理解数据集。

Model

下面对模型详细介绍:模型整体比较复杂,大体就是R-NetSeq2Seq的组合。

Overview

在这里插入图片描述

由上图可以看出,整个模型是一个pipeline结构,并不是端到端的,Seq2Seq的效果本来就不是很好,因此第一个模块抽取的质量很关键,能把Seq2Seq用上本身就是一种突破。

模型分两个模块,分别是Evidence Extraction ModelAnswer Synthesis Model

Evidence Extraction Model

在这里插入图片描述

这个模型从本质上讲和R-Net有很大的相似性,只是没有高层的self-attention

Embedding Layer

该层的输入就两个,词级别的表示和字符级别的表示,然后喂给双向GRU得到最终的表示 U t Q , U t P U^Q_{t},U^P_{t} UtQ,UtP

Question-aware passage representation

这部分就是passagequeryattention,得到权重化的表示,也就是所谓的Question-aware。这部分较复杂,过程简单来讲就是计算attention,过门控函数,再用GRU得到表示 V t P V^P_t VtP

之后还是一个计算attention的过程, U t Q U^Q_{t} UtQ做一个self-attention,得到最终的表示 r Q r^Q rQ。然后用得到的问题表示 r Q r^Q rQ与GRU得到表示 V t P V^P_t VtPattention,加权求和得到最终的passage表示 r P r^P rP

这里可以提一下多任务学习中的硬共享模式,这两个表示也就硬共享模式中的shared representation,在此基础上,在根据任务在最后一层有不同的输出。任务分别是Evidence PredictionPage Ranking

Evidence Prediction

主要思想就是指针网络,求span起始位置和终止位置的概率值。

首先用问题最后的表示 r Q r^Q rQ初始化GRU的第0时刻的隐藏层状态 h 0 a h^a_0 h0a,然后就是标准的pointer network。输入是 r Q r^Q rQ V P V^P VPGRU之后过softmax,选择概率最大的作为输出。

Page Ranking

这个任务本质上是个二分类问题,合理利用了数据集中给的标注,问题的答案是否用到当前passage的内容,用到标为1,没用到标为0。直接把 r Q r^Q rQ r P r^P rP喂给分类器就可以了,任务简单,但是给了抽取任务一定的监督信号,有一定的辅助作用。

Training for Evidence Extraction Model

抽取模块的损失函数分两部分,用超参去调相应的比重。
L E = λ L A P + ( 1 − λ ) P R {L}_{E} = \lambda{L}_{AP}+{(1-\lambda)}_{PR} LE=λLAP+(1λ)PR

Answer Synthesis Model

在这里插入图片描述

抽取片段的模型部分得到evidence,之后并不是直接就作为Seq2Seq的输入,中间还有一定的处理过程。

Initialization

首先,用BiGRU得到问题和文档的表示,文档的表示是由抽取模块处理好的passage(把起始位置和终止位置作为特征)作为输入,用0/1表示。
h t P = B i G R U ( h t − 1 P , [ e t P , f t s , f t e ] ) h_t^P = BiGRU(h_{t-1}^P,[e_t^P,f_t^s,f_t^e]) htP=BiGRU(ht1P,[etP,fts,fte])
h t Q = B i G R U ( h t − 1 Q , e t Q ) h_t^Q = BiGRU(h_{t-1}^Q,e_t^Q) htQ=BiGRU(ht1Q,etQ)
其中, f f f用来表示span的起止位置,然后 d 0 d_0 d0初始化Seq2Seq,其中:
d 0 = t a n h ( W d [ h 1 P , h 1 Q ] + b ) d_0 = tanh(W_d[h_1^P,h_1^Q] + b) d0=tanh(Wd[h1P,h1Q]+b)
这里就是取BiGRU的第一个隐藏层状态作为MLP的输入得到Seq2Seq所需要的 d 0 d_0 d0

Answer Synthesis

答案合成这个部分就是标准的Attention-based Seq2Seq,图上画的也比较清楚了,公式如下
d t = G R U ( w t − 1 , c t − 1 , d t − 1 ) d_t = GRU(w_{t-1},c_{t-1},d_{t-1}) dt=GRU(wt1,ct1,dt1)
其中Attention是的计算就是最普通的Global Attention。最终的输入在过Maxout激活函数和softMax,即得到概率分布。

Training for Answer Synthesis Model

答案合成模块的损失函数就是负对数似然。

Experiments

从实验结果上可以看出,S-Net的答案抽取模块并没有R-Net好,虽然加了一个Passage Ranking的辅助任务,但是还是没有对Passage representation最后再做一次self-attention效果好。不过,最后加上Seq2Seq效果好很多,接近人类的水平,个人观点是在抽取span之后处理的好,当然不可否认可以把Seq2Seq训练好也不容易了。

Conclusion

最后,对S-Net做一个简单的总结:

  1. 为多篇章(生成式)阅读理解提供了一个先抽取再生成的框架;
  2. 使用多任务学习辅助训练主任务;
  3. 第一次将Seq2Seq应用到阅读理解的任务中。

另外,如有错误或者不对的地方,请您提出宝贵意见!

References

  1. S-Net: From Answer Extraction to Answer Generation for Machine Reading Comprehension. JChuanqi Tan, Furu Wei, Nan Yang, Bowen Du, Weifeng Lv and Ming Zhou. AAAI 2018.
  2. MAMARCO leaderboard: http://www.msmarco.org/leaders.aspx
  3. MAMARCO Analysis: https://github.com/IndexFziQ/MSMARCO-MRC-Analysis
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IndexFziQ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值