InferSent

Supervised Learning of Universal Sentence Representations from Natural Language Inference DataGitHub论文目的NLP系统基于word embedding作为base features,却很少有成功的sentence embedding。本论文基于Stanford NLI数据得到好的sentence representations,也可以转换到其它数据集。相关工作word2vecgloveSkip
摘要由CSDN通过智能技术生成

Supervised Learning of Universal Sentence Representations from Natural Language Inference Data
GitHub

论文目的

NLP系统基于word embedding作为base features,却很少有成功的sentence embedding。本论文基于Stanford NLI数据得到好的sentence representations,也可以转换到其它数据集。

相关工作

  • word2vec
  • glove
  • SkipThought(非监督)
  • FastSent(非监督)

Approach

NLI任务、LSTM网络架构

The Natural Language Inference task

SNLI数据集包含570k 文本对, 有三种label:entailment,contradiction and neutral
在这里插入图片描述
本来是可以用交互式的,但是本论文的目的是为了得到单句向量,交互式的就被pass掉了。
进入一个encoder网络,分别得到premise和hypothesis的对应sentence embedding u和v,经过三种匹配方式(concat、absolute element-wise difference、点积)后进入分类层

Sentence encoder architectures

比较了7种网络架构

  • lstm
  • gru
  • gru前向和后向的拼接
  • BiLSTM的mean pooling
  • BiLSTM的max pooling
  • self-attentive network
  • hierarchical convolutional networks

LSTM and GRU

a sequence of T words (

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值