对比学习(contrastive Learning)

起源和定义

自监督学习又可以分为对比学习(contrastive learning)和生成学习(generative learning)两条主要的技术路线。

比学习的核心思想是将正样本和负样本在特征空间对比,从而学习样本的特征表示,使得样本与正样本的特征表示尽可能接近。正样本和负样本是使用代理任务(pretext task)来定义的. 代理任务定义了样本之间的相似性,给定一个样本,与之相似的样本就是正样本,而不相似的样本就是负样本.

对比学习主要研究问题

1)如何构造正负例.

不同的数据增强方式可以让模型学 习到不同的特征表示,不同的表征适用于不同的下游任务. 选 择合适的数据增强方式,构造合理的正负例,是能否成功提取 对下游任务有用表征的关键.

2)负例的数量.

多少负例才能够让模型得到充分的学习?SimCLR提出 1∶ 4096,许多实验也验证了负例越多效果越好.

3)损失函数.

        对比学习的研究目标是要学习一个映射函数 f(x),也就是 encoder 编码器,满足下式:

其中,s()是相似度计算函数,x 为输入样本,x^{+} 为正例,x^{-}为负例. 要使得输入样本与正例的相似度远大于负例,需要 通过损失函数来达到. 可以根据不同的任务来设计不同的损 失函数.

         损失函数是用来评估模型的预测值与真实值之间的差 别. 损失函数的设计,直接影响到模型的性能. 对比学习可以 看作是一种降维学习方法,通过学习一种映射关系,将样本通过映射函数映射到低维空间,使得同类样本距离拉近,不同类 样本距离推远.

对比学习评价标准? 

评价一个对比学习模型的好坏标准,一方面可以通过下游任务效果的好坏来衡量,另一方面也可以通过“对齐” 与 “均匀”两个指标来衡量. 举个例子来说明这两个指标:超市里面的商品都是按类别摆放,如厨房用品、清洁用品、服饰 等,同类商品摆放在一起,方便用户选购,这就是“对齐”;超 市里面的货架要分布均匀,区域之间的距离都差不多,这就是 “均匀”. 理想状态是每个类别均匀分布在一个超球体上,这样每个类别之间的距离都一样. 正例之间保持紧密性,负例之间保持分散性.

[1]李希,刘喜平,李旺才等.对比学习研究综述[J].小型微型计算机系统,2023,44(04):787-797.DOI:10.20009/j.cnki.21-1106/TP.2022-0538.

 对比学习研究现状

  构造多视图样本 将同一幅图像在多个不同视图下的表达分别进行特 征提取, 然后进行对比学习, 有利于提升模型的效 果. 在视频分析中, 如对同一幅图像分别提 取光流、语义分割、关键点等多视图特征, 然后进行 对比学习, 提升了视频特征表达能力

 图像语义增广是一种直接对图像中物体的语义 进行修改的图像增广方法, 如将图像中的物体的颜 色或角度进行改变.

[2]张重生,陈杰,李岐龙等.深度对比学习综述[J].自动化学报,2023,49(01):15-39.DOI:10.16383/j.aas.c220421.

 

instdisc

个体判别:假设模型的batchsize是256,有256张图片进入CNN网络,因此有256个正样本。负样本来自memory bank,每次从memory bank中随机采样出4096个负数样本,利用infoNCE loss去更新CNN的参数。本次更新结束后,会将CNN编码得到的向量替换掉memory bank中原有的存储。

NCELoss:对比学习损失—InfoNCE理论理解_黑洞是不黑的博客-CSDN博客

InvaSpread

CPC

CMC

MOCO系列(重点)

SimCLR

SwAV

不用负样本的对比学习

BYOL:

SimSiam(重点)

下游任务:MoCOv2,SimSiam

transfomer

mocov3

DINO

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对比学习是一种自监督的、与任务无关的深度学习技术,它允许模型学习数据,即使没有标签。该方法通过学习哪些类型的图像相似,哪些不同,来学习数据集的一般特征。对比学习的目标是使相似的图像具有相似的表示,从而允许模型学习如何区分图像。这种方法在标签稀缺的情况下尤为有用,因为预训练模型可以通过对数据有一般理解来提高标签效率,并在特定任务上进行微调,例如图像分类。对比学习方法的一个例子是SimCLRv2,它学习如何表示图像,使得相似的图像具有相似的表示。通过对比学习,模型可以更好地理解数据集的特征,并在特定任务上取得更好的性能。\[1\] \[2\] 生成式方法和对比式学习是两种不同的方法。生成式方法主要关注像素级别的重构,通过自编码器等模型将数据样本编码成特征再解码重构,通过衡量重构的效果来评估模型学习到的特征表达的好坏。而对比式学习则着重于学习同类实例之间的共同特征,区分非同类实例之间的不同之处。对比式学习不需要关注实例上的细节,只需要在抽象语义级别的特征空间上学会对数据进行区分,因此模型的优化变得更加简单,且具有更强的泛化能力。\[3\] #### 引用[.reference_title] - *1* *2* [对比学习contrastive learning)](https://blog.csdn.net/cziun/article/details/119118768)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [对比学习介绍Contrastive Learning](https://blog.csdn.net/weijie_home/article/details/119600296)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值