-2022最新对比学习(Contrastive Learning)相关必读论文整理分享

本文介绍了自监督学习的原理,特别是对比学习这一分支,它通过正负样本对比来学习特征表示。自编码器是生成式方法的代表,而对比学习的挑战在于正负样本构造。博客提供了对比学习相关论文资源链接,涵盖最新研究进展。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

    要说到对比学习(Contrastive Learning),首先要从自监督学习开始讲起。自监督学习属于无监督学习范式的一种,特点是不需要人工标注的类别标签信息,直接利用数据本身作为监督信息,来学习样本数据的特征表达,并用于下游任务。

    当前自监督学习可以被大致分为两类:

    Generative Learning vs Contrastive Learning

    Generative Learning(生成式方法)这类方法以自编码器为代表,主要关注pixel label的loss。举例来说,在自编码器中对数据样本编码成特征再解码重构,这里认为重构的效果比较好则说明模型学到了比较好的特征表达,而重构的效果通过pixel label的loss来衡量。

    Contrastive Learning(对比式方法)这类方法则是通过将数据分别与正例样本和负例样本在特征空间进行对比,来学习样本的特征表示。Contrastive Learning主要的难点在于如何构造正负样本。

    对比学习做为一种新兴热门深度学习算法,从起步逐步编程学术界和工业界研究的主流。本资源整理了最近几年对比学习相关论文,需要的朋友自取。

    资源整理自网络,资源获取见源地址:

https://github.com/asheeshcric/awesome-contrastive-self-supervised-learning

论文列表

往期精品内容推荐

AI必读10本经典-深度学习花书《Deep Learning》-中英文版分享

机器学习核心知识手册-《机器学习综述》书籍分享

图神经网络20年新书-《深度学习图神经网络模型》免费pdf分享

Hands-On Machine Learning with Scikit-Learn &TensorFlow-中英文版分享

中文自然语言处理百万级语料库-ChineseSemanticKB免费下载

欧洲计算机视觉国际会议ECCR20最新论文整理分享

CMU低资源NLP训练营-自然语言任务综述

语料库语言学:方法论指南

2020年免费新书-《自然语言处理中词向量表示算法概述》分享

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

lqfarmer

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值