DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations

68 篇文章 2 订阅
60 篇文章 1 订阅
DeCLUTR是一种无监督的句子表示学习方法,采用深度对比学习,无需依赖标注数据。该方法受到计算机视觉中深度度量学习的启发,通过最小化相同文档中随机采样文本片段的嵌入距离来学习通用的句子嵌入。实验表明,DeCLUTR在SentEval基准测试中达到了SOTA结果,且模型和数据大小的增加能进一步提升表示质量。该研究为基于Transformer的预训练语言模型提供了新的预训练目标,并开源了代码。
摘要由CSDN通过智能技术生成

Abstract

  • DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
    • 用来学习通用 sentence embeddings 的自监督目标,不依赖于标注数据.
  • 灵感来自于近期 deep metric learning (DML) 领域的进展
  • 缩小了无监督方法和有监督方法之间的 gap
  • 效果随着参数的增加和无标签训练数据的增加而提升
  • 代码及模型:https://github.com/JohnGiorgi/DeCLUTR

1 Introduction

sentence embedding:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值