【论文笔记】Gated Self-Matching Networks for Reading Comprehension and Question Answering

概述

本文提出了门机制和自匹配注意力机制。

门机制:
原先的做法是将得到的问题注意力向量和文本编码直接送入到RNN中得到新的融入问题的文本表示。
但是考虑到文本中的每个词对于问题是有不同的重要程度的,引入了一个门机制,根据与问题的相关程度给文本每个词赋于不同的权重。然后把问题注意力向量和赋予权重后的文本表示送入RNN中得到新的融入问题的文本表示。

自匹配注意力机制:self-attention和gate机制的融合
对融入问题的新文本表示进行self-attention,加强文本内部之间的联系,并同理运用门机制,最终得到文本表示hp

论文的链接
Gated Self-Matching Networks for Reading Comprehension and Question Answering

模型

在这里插入图片描述
在这里插入图片描述

1.问题和文本的编码

对输入的文本和问题分别进行单词级别的embedding(ep和eq)和字符级别的embedding(cp和cq),然后再将两部分拼接,送入到双向G

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值