对比学习技术进展跟踪

对比学习最近挺火的,集中读读相关的论文。先挖个大坑,慢慢填。

核心思想是缩短两个正样本之间的距离,拉大负样本之间的距离。

1. SimCSE

SimCSE: Simple Contrastive Learning of Sentence Embeddings
来源:EMNLP 2021
链接:https://aclanthology.org/2021.emnlp-main.552/
陈丹琦组在EMNLP2021上的新作,真的巧妙,大道至简,什么样的聪明小脑瓜能想出这样绝妙的idea,又简单又鲁棒,实验和分析做得都非常充足。

  • 妙点1:用dropout在生成文本的正例
  • 妙点2:把自然语言推断任务中的三分类(隐含、中立、矛盾)任务重构,把隐含关系的两句话互为正例,把矛盾关系的两句话互为负例子。

具体的细节写于: 【论文阅读-对比学习】SimCSE Simple Contrastive Learning of Sentence Embeddings

2. ConSERT

ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer
来源:ACL 2021
链接:https://aclanthology.org/2021.acl-long.393/

  • 在未标注的数据集上微调预训练模型,达到embeddings在下游任务上的迁移与适配;
  • 研究对比学习框架中多种数据增强策略:对抗攻击、Token Shuffling、Cutoff、Dropout,这些策略都是在embedding层做的和之前相比是一大进步

具体的细节写于:【论文阅读-对比学习】ConSERT- A Contrastive Framework for Self-Supervised Sentence Representation Transfer

3. Mixsum

Constructing contrastive samples via summarization for text classification with limited annotations
来源:EMNLP 2021
链接:https://aclanthology.org/2021.findings-emnlp.118/

背景是在标注数据有限的情况下,使用对比学习来改善文本分类任务。

  • 用文本摘要来作为数据增强的方式来生成正负样本
  • 提出了Mixsum,通过混合原始样本构建新样本

具体的细节写于:【论文阅读-对比学习】Constructing Contrastive Samples via Summarization for Text Classification

  • 待读list:
  1. Self-Guided Contrastive Learning for BERT Sentence Representations
    来源:ACL 2021
    链接:https://aclanthology.org/2021.acl-long.197/

  2. CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding
    来源:ACL 2021
    链接:https://aclanthology.org/2021.acl-long.181/

  3. DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
    来源:ACL 2021
    链接:https://aclanthology.org/2021.acl-long.72/

  4. CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extraction
    来源:ACL 2021
    链接:https://aclanthology.org/2021.acl-long.483/

  5. xMoCo: Cross Momentum Contrastive Learning for Open-Domain Question Answering
    来源:ACL 2021
    链接:https://aclanthology.org/2021.acl-long.477/

  6. Modeling Discriminative Representations for Out-of-Domain Detection with Supervised Contrastive Learning
    来源:ACL 2021
    链接:https://aclanthology.org/2021.acl-short.110/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值