[论文泛读]Enhanced LSTM for Natural Language Inference

论文标题:《Enhanced LSTM for Natural Language Inference》

论文链接:https://arxiv.org/abs/1609.06038

简介
今天分享的论文是NLP领域曾一度成为短文本匹配竞赛刷榜利器——ESIM。NLPer应该对这个模型不会陌生。

光看论文标题就可以知道,该模型是一种专为自然语言推断而生的加强版LSTM,那么究竟是如何加强呢?接着往下看。

先说一下,这个模型(论文中)主要在为了做一件什么事情呢?

就是自然语言推断(Natural Language Inference,NLI),即给定前提premise和假设hypothesis,要求判断两者的关系(1.不相干neural;2.冲突contradiction,即有矛盾,3.蕴含entailment,即能从p推断h或者两者表达相同的意思)
在这里插入图片描述
上图是该论文的摘要部分,高亮部分就已经突出了该模型的重点:

基于链式LSTMs精心设计了序列推断模型 (carefully designing sequential inference models based on chain LSTMs);
考虑局部推断和推断组合(in both local inference modeling and inference composition)
作者主要是引入了句子间的注意力机制(intra-sentence attention),来实现局部的推断,进而实现全局的推断。

模型详解
下面,仔细拆解一下模型:
在这里插入图片描述
上图是ESIM的核心框架,主要有三部分:Input Encoding、Local Inference Modeling 和Inference Composition。左半部分就是我们要讲的ESIM,右半部分的区别在于使用了一种叫Tree-LSTM的变种LSTM结构,可用于做句子的语法分析。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值