Teaching Machines to Read and Comprehend

关键词

real natural language traning data, nerual model

来源

arXiv 2015.06.10 (published at NIPS 2015)

问题

针对阅读理解缺乏大规模训练数据集,构建了相应的数据集。同时尝试利用神经网络模型解决机器阅读理解问题。


文章思路

文章中提出了三种神经网络模型,分别如下:

  1. Deep LSTM
    其实就是用一个两层 LSTM 来 encode query||document 或者document||query,然后用得到的表示做后续工作。
    Deep LSTM

  2. Attentive Reader
    这一模型分别计算 document 和 query,然后通过一个额外的前馈网络把他们组合起来。
    document 部分利用双向 LSTM 来 encode,每个 token 都是由前向后向的隐层状态拼接而成,而 document 则是利用其中所有 token 的加权平均表示的,这里的权重就是 attention,利用 query 部分就是将双向 LSTM 的两个方向的最终状态拼接表示而来。
    最后利用 document 和 query 做后续工作。
    Attentive Reader

  3. Impatient Reader
    这一模型和 attentive reader 类似,但是每读入一个 query token 就迭代计算一次 document 的权重分布。
    Impatient Reader

最终的结果,在 CNN 语料中,第三种模型 Impatient Reader 最优,Attentive Reader 效果和 Impatient Reader 差不太多。在 Daily Mail 语料中,Attentive Reader 最优。


资源

论文地址:https://arxiv.org/abs/1506.03340
数据集地址:https://github.com/deepmind/rc-data

相关工作

文章借鉴了自动文摘任务,将新闻文本作为 document,将相对应的摘要作为 query。同时为了防止只根据 query 上下文就推断出答案而不需要阅读的问题,将实体匿名化并重新排列,最终结果如下:
语料库构建效果

简评

文章提供一个比较大的数据集,并且指出 CNN 语料要比 Daily Mail 阅读理解难度要低一些。同时给了三个 baseline 神经网络模型。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值