ACL2017 Enhancing and Combining Sequential and Tree LSTM for Natural Language Inference

论文强调将语法和句法信息相结合,来做NLI任务。
In many problems, syntax and semantics interact closely, as generally phrased in the slogan “the syntax and the semantics work together in tandem” (Barker and Jacobson, 2007), among others.

模型结构如下图:
总体结构

给定两个句子 (a1,...,ala) ( a 1 , . . . , a l a ) and b=(b1,...,blb) b = ( b 1 , . . . , b l b ) ,这里 a a 是premise,b是hypothesis。 ai a i bj b j 都是 l l -维的词向量,可通过预训练得到。目标是预测标签y,来指示 a a b的逻辑关系。

BLSTM对于序列 a a 顺序处理,当第i时刻 ai¯ a i ¯ 和 第 j j 时刻bj¯计算如下:
这里写图片描述

这里写图片描述

为了构建premise和hypothesis的相关性,构建attention 权重矩阵,其中每个元素为 eij e i j 。例如,在premise中的一个词的hidden state, ai¯ a i ¯ (已经encode了自身和上下文信息),其与hypothesis中的语义相关性定义如下:

这里写图片描述

ai~ a i ~ {bj}¯lbj=1 { b j } ¯ j = 1 l b 的加权求和。即在 {bj}¯lbj=1 { b j } ¯ j = 1 l b 中与 ai¯ a i ¯ 相关的内容表示为 ai~ a i ~ 。同理公式13也可以类似理解。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值