pair2vec: Compositional Word-Pair Embeddings for Cross-Sentence Inference

pair2vec: Compositional Word-Pair Embeddings for Cross-Sentence Inference

origin

2019 naacl
Mandar Joshiy Eunsol Choiy Omer Levyz Daniel S. Weldy Luke Zettlemoyeryz
y Paul G. Allen School of Computer Science & Engineering,
University of Washington, Seattle, WA
Facebook AI Research, Seattle

代码链接

motivation

在之前关于跨句推断问题(例如问答、自然语言推断)研究中,都只单纯的使用单个词的embedding, 本文在跨句推断模型中显示加入词对信息,词对信息在跨句推断中十分重要,一定程度上可以包含一些背景知识。例如golf is prohibitively expensive 与 “golf is a cheap pastime” 是矛盾的,因为expensive 和 cheap 是反义词。

model

在这里插入图片描述
上面的模型结构图是整个跨句推断模型以及如何将词对信息加入到模型中。词对信息通常与跨句推断模型的最后一层表示进行拼接,而没有作为词嵌入信息加入到跨句推断模型的encoder中,为了使得词嵌入信息作为背景知识辅助跨句推断。接下来考虑如何编码词对信息。

编码词对信息我们借鉴类似word2vec的思想,相似的词对往往出现在相似的上下文环境中,如果有这样的数据集:词对以及上下文  我们就可以借鉴word2vec的思想训练词对信息 接下来我们考虑如何对词对信息以及上下文进行编码:
词对编码:
在这里插入图片描述
使用一个4层的感知机编码词对信息, R ( x , y ) R(x,y) R(x,y)是一个组成函数,单独处理x和y,解决词对 ( x , y ) (x,y) (x,y)的稀疏问题
在这里插入图片描述
上下文编码:
使用Bi-LSTM模型编码上下文序列
在这里插入图片描述
目标函数:
我们期望 R ( x , y ) R(x,y) R(x,y) C ( c ) C(c) C(c)相似(有较大的内积)对于 ( x , y , c ) (x,y,c) (x,y,c)出现在数据集中,同时期望 R ( x , y ) R(x,y) R(x,y)和随机的上下文 C ( c ) C(c) C(c)相似性较低,通过负采样构造负例。本文里提供了两种构造负例的方式。
在这里插入图片描述
k ∗ k_* k表示采样的个数  c i N c_i^{N} ciN 表示上下文负例,类似的 x i N x_i^{N} xiN y i N y_i^{N} yiN分别表示对 x x x y y y的负采样
对于Bivariate目标函数:
在这里插入图片描述
对于Multivariate目标函数:
在这里插入图片描述
在这里插入图片描述
Typed sample: 通过计算词向量之间的余弦距离相似度,选择相近的100个作为替换,目的是为了学习更具体的关系。

将pair2vec加入到推理模型中:
a 1 , a 2 , . . . . . . a n a_1,a_2,......a_n a1,a2,......an b 1 , b 2 , b 3 , . . . . , b m b_1,b_2,b_3,....,b_m b1,b2

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值