Siamese CBOW: Optimizing Word Embeddings for Sentence Representations

引言

Siamese CBOW,来自Tom Kenter等的于2016年发的论文:Siamese CBOW: Optimizing Word Embeddings for Sentence Representations
作者提到,当前的很多句向量的表示方法都是简单的用词向量的加和平均,这种方法表现出一定的有效性,但是并没有针对特定任务的句向量进行优化的方法。
因此本文提出一种训练句向量的方法,借鉴于CBOW模型,采用目标句子的上下文句来预测当前句子。

数据源

采用Toronto Book Corpus,包括了七千多万句已经预处理好的句子,从前到后为连贯的句子。需要考虑的是不同的段落间,句子可能存在一定的不连贯,但在这种规模的数据量下,也可以忽略。

模型

模型结构如下:
在这里插入图片描述

Input

对于每个目标句子,考虑其前后两个句子作为正例,同时随机抽取一定量的样本,比如2个,作为负例。这里的token粒度为word级别,处理成相应形式输入,即[sentence,pre-sentence,post-sentence,neg-sentence,neg-sentence]

Embedding Layer

对于输入句子,通过初始化的Embeding层查找,分别得到其相应的Embeding Matrix W,将相应的Matrxi进行加和平均得到句子的句向量。

Cosine Layer

分别计算sentence与其余句子之前的cosine相似度作为句子间的相似度。

Prediction Layer

直接将上述相似度作为输入,通过softmax计算最终的输出,如下:
在这里插入图片描述
其中 s x θ s_x ^\theta s

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值