《A Through Examination of the CNN_Daily Mail Reading Comprehension Task》——Stanford Attentive Reader

  • 论文其他细节不再注意,只关注它的网络结构。
  • 可能是年代比较久远,github上只有一个这篇论文的代码…还是python2.7的

模型结构

在这里插入图片描述

  • 模型分三部分:
  • 第一部分,编码:问题的词编码一样,先通过一个embedding表,把词编程embedding,然后过双向GRU,前向和后向连在一起表示这个token出的表示,同样对问题也编码,只说了问题编码后的维度:h,估计和其他论文一样,都是前向后向的最后一个concat到一起。

在这里插入图片描述

  • 第二部分:attention部分,跟其他论文一样,只是attention的计算方式变了:bilinear term,公式见下:
  • 大概率感觉这个Ws矩阵应该是个变量,需要学习出来。
    在这里插入图片描述
  • 第三部分: predict部分,细节在下面的对比里面说

在这里插入图片描述

和 attentive reader对比

第一

  • attention匹配函数不一样,而且这个变化对于结果好贡献很大。
    在这里插入图片描述

第二

  • 和attentive reader对比,这里直接用o去预测了,没有像attentive reader一样再加上question 的embedding q,并且表现也不差。
    在这里插入图片描述

第三

  • 这个模型最后预测时不用整个词库,只用了entity的词库。
  • 最搞笑的是:加粗那一句,他们说只有第一个是最重要的,其他都是为了简化模型,所以模型核心就是换了一个attention 匹配函数,和张俊林大佬说的一样。
  • The original model considers all the words from the vocabulary V in making predictions. We think this is unnecessary, and only predict among entities which appear in the passage. Of these changes, only the first seems important; the other two just aim at keeping the model simple.

END

  • 本篇完
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值