自监督学习系列(3) : A simple framework for contrastive learning of visual representations

目录

相关信息

主要思想

讨论

结果

ImageNet accuracies of linear classifiers

ImageNet accuracy of models trained with few labels

Comparison of transfer learning performance of our self-supervised approach with supervised baselines 

Reference


首先还是论文的相关信息

Paper: A simple framework for contrastive learning of visual representations

地址: http://arxiv.org/abs/2002.05709

主要思想

SimCLR是self-supervised learning与contrastive learning中重要的一个相当重要的里程碑,其最大的特点在于研究各种数据增强 (data augmentation) 作为SSL的归纳偏置 (inductive bias),并利用不同data间彼此的互斥强化学习目标,避免contrastive learning的output collapse。

整体运作概念分为三个阶段:

  • 先sample一些图片(batch of image)
  • 对batch裡的image做两种不同的data augmentation
  • 希望同一张影像、不同augmentation的结果相近,并互斥其他结果。

如果要将SimCLR的架构划分阶段,大致可以分成两个阶段,首先是大个embedding网络执行特征抽取得到y,接下来使用一个小的网络投影到某个固定为度的空间得到z。

附:作者提供的伪代码

讨论

这个小网络投影也是SimCLR的另一个特点。对于同一个x,用data augmentation得到不同的v,通过网络抽取、投影得到固定维度的特征,计算z的contrastive loss,直接用gradient decent同时训练两个阶段的网络。

SimCLR的方法虽然简单,但是一个麻烦的点在于需要大量的online负样本提供斥力。在论文中使用了4096的batch size,还需要为了特别大的batch使用LARS作为optimizer。

结果

ImageNet accuracies of linear classifiers

ImageNet accuracy of models trained with few labels

Comparison of transfer learning performance of our self-supervised approach with supervised baselines 

原文链接

https://medium.com/%E8%BB%9F%E9%AB%94%E4%B9%8B%E5%BF%83/self-supervised-learning%E5%8F%AF%E4%BB%A5%E5%BE%88%E7%B0%A1%E5%96%AE-bylo%E8%88%87simsiam%E7%9A%84%E8%A7%80%E9%BB%9E-bac4bbdaaaf9

Reference

[1] A Simple Framework for Contrastive Learning of Visual Representations [ICML 2020]

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
监督对比学习是一种无监督学习方法,旨在通过将数据样本与其在相同任务下的变体进行比较来进行特征学习。其核心思想是将一个样本与自身的不同变体进行对比,以推动特征的区分度增加。 在自监督对比学习中,通常使用一种转换函数对输入样本进行变换,生成多个变体。这些变换可以是图像旋转、裁剪、亮度调整等,也可以是对文本数据进行掩码、重排等操作。对于每个输入样本及其变体,模型将利用一个对比损失函数来度量它们之间的相似性。 通过自监督对比学习,模型会学习到一组鲁棒的特征表示。这些特征不仅能够区分同一样本与其变体,还能够区分不同样本之间的差异。通过不同样本之间的对比学习,模型可以学习到更加丰富的语义信息,提高数据的表征能力。 自监督对比学习在计算机视觉和自然语言处理等领域得到了广泛的应用。例如,在图像领域,可以利用自监督对比学习学习图像中的局部特征、形状和纹理等信息。而在自然语言处理领域,可以通过对文本进行掩码、重排等方式来进行自监督对比学习,以学习词语、句子和文档的语义表示。 自监督对比学习的窥探给了我们一个更好的方式,通过无监督学习方法来解决许多现实世界中的问题。它为我们提供了一种从大规模数据中学习有用表示的方式,提高了学习算法的效率和泛化性能。通过进一步的研究和发展,自监督对比学习注定将在更多的领域中发挥重要的作用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值