Multiway Attention Networks for Modeling Sentence Pairs阅读笔记

本文是Multiway Attention Networks (MwAN)的阅读笔记,该模型用于增强句子对之间的交互,特别是在paraphrase identification、natural language Inference等任务中。MwAN通过多样的注意力机制改进了matching-aggregation结构,包括Encoding Layer、Multiway Matching、Inside Aggregation、Mixed Aggregation和Prediction Layer。实验部分展示了在Quora Question Pairs、SNLI、MultiNLI和SQuAD等数据集上的优秀性能。
摘要由CSDN通过智能技术生成

概述

对句子对进行建模应用非常广泛, 常见的任务有paraphrase identification, natural language Inference, sentence similarity, answer sentence selection等等.

目前的方法总结起来可以分为两种结构:

  1. 对两句话分别单独编码, 最后基于提取的特征输出结果. 这种做法最大的缺陷是在编码阶段没有任何交互, 损失了很多信息.
  2. 为了解决第一种结构存在的缺陷, 目前流行的做法是利用注意力机制, 增强句子对之间的交互. 这种模型结构基于matching-aggregation结构, 先利用注意力机制, 提取句子对中词与词之间的匹配信息, 再对匹配信息进行聚合操作, 用来衡量两句话的关系.

这篇文章的网络结构依然采用目前流行的matching-aggregation结构, 创新点在于使用了多种attention方程来进行匹配.

模型

在这里插入图片描述
包含五部分:

  • Encoding Layer
  • Multiway Matching
  • Inside Aggregation
  • Mixed Aggregation
  • Prediction Layer

1. Encoding Layer

先将每个词表示为word embedding和contextual embedding(Elmo), 然后利用双向GRU进行编码. 对于句子q,
在这里插入图片描述
最终句子q表示为 h t q = [ h t q → , h t q ← ] h_t^q = [\overrightarrow{h_t^q}, \overleftarrow{h_t^q}] htq=[htq

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值