Universal Sentence Encoder

68 篇文章 2 订阅
60 篇文章 1 订阅
该文提出两种预训练的句子嵌入模型——基于Transformer和Deep Averaging Network(DAN),用于多种NLP任务的迁移学习,实验表明它们在小规模数据集上能取得良好效果。Transformer模型在准确性上占优,但计算资源需求高;DAN模型则在效率和准确性间取得平衡。论文还探讨了不同模型在资源使用和性能之间的权衡,并提供了预训练模型供下载。
摘要由CSDN通过智能技术生成

Abstract

Baseline:

  • word level transfer learning via pretrained word embeddings
  • do not use any transfer learning

we find that transfer learning using sentence embeddings tends to outperform word level transfer.

pre-trained sentence encoding models are made freely available for download and on TF Hub.
https://tfhub.dev/google/universal-sentence-encoder/1

在这里插入图片描述

Introduction

由于标注成本高昂,在大部分学术界和工业界的 NLP 任务中并没有大量可用的数据集。很多模型通过使用预训练词嵌入(wordwvec, GloVe等)隐式实现有限的迁移学习来解决这个问题。最近的研究发现预训练的句子级别的 embedding 展现出很好的性能。

本文提出两种模型来生成 sentence embedding,在多种 NLP 任务上展现出很好的迁移学习效果。

本文还通过实验说明了迁移学习效果和训练集大小的关

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值