目录
一、概述
英语原文链接:https://pan.baidu.com/s/1GTlSjQGSPd-Om6nLrpa7Pw 密码:f6o5
英文论文名称:《Supervised learning of universal sentence representations from natural language inference data》
传统的语句嵌入方法(sentence2vec)往往采用的是无监督学习方法,然而无监督的学习方法在较长语句向量的获得方面表现得不够优异。这篇文章中,我们将介绍一种有监督的训练方法(以Stanford Natural Language Inference Datasets为训练集),实验表明,这种方法要优胜于skip-thought方法(一种encoder-decoder模型)。
如果你还不了解skip-thought,最好去了解一下(虽然本文用不到,但它确实是一个值得学习和研究的语句嵌入方法)。
二、原理
1、训练集介绍
本文采用的是Stanford Natural Language Inference Datasets,简称SNLI。SNLI包含570K个人