Abstract
Baseline:
- word level transfer learning via pretrained word embeddings
- do not use any transfer learning
we find that transfer learning using sentence embeddings tends to outperform word level transfer.
pre-trained sentence encoding models are made freely available for download and on TF Hub.
https://tfhub.dev/google/universal-sentence-encoder/1
Introduction
由于标注成本高昂,在大部分学术界和工业界的 NLP 任务中并没有大量可用的数据集。很多模型通过使用预训练词嵌入(wordwvec, GloVe等)隐式实现有限的迁移学习来解决这个问题。最近的研究发现预训练的句子级别的 embedding 展现出很好的性能。
本文提出两种模型来生成 sentence embedding,在多种 NLP 任务上展现出很好的迁移学习效果。
本文还通过实验说明了迁移学习效果和训练集大小的关