无监督对比学习论文Momentum Contrast for Unsupervised Visual Representation Learning阅读

MoCo论文:《Momentum Contrast for Unsupervised Visual Representation Learning》

在这里插入图片描述

论文地址: Momentum Contrast for Unsupervised Visual Representation Learning
代码:MoCo—github

作者:何凯明(巨巨巨~~~~巨佬,着实佩服亿整年以及另外4个大佬。
期刊/会议:CVPR2020

基础概念了解

1、无监督、有监督与自监督学习

  是否有监督,就看输入数据是否有标签(label)。输入数据如果有标签则为有监督学习;否则为无监督学习(Unsupervised Learning)。深度学习领域的模型一般先通过一些Backbone来进行数据的特征提取,然后再将提取到的Feature送入下游任务(如检测和分割等)。Backbone之所以能够有效提取特征是因为研究者将其事先在ImageNet等有标签的大型数据集上进行了预训练。但如果面对没有大量标注数据的情况,该怎么去处理它呢?因此自监督学习(self-supervised)被用来解决这个问题。它旨在对于无标签数据 ,通过设计前置任务(pretext tasks) 来挖掘数据自身的表征特性并以此作为监督信息(这里获取的监督信息不是指自监督学习所面对的原始任务标签,而是构造的前置任务标签),来提升模型的特征提取能力。无标签数据和辅助信息是自监督学习的两个关键词。

2、对比学习

  顾名思义,对比学习就是把不同的东西放在一起来对比着学习。例如,现在有很多张图片,我们使用模型进行对比学习,在模型对比学习的过程中,模型并不需要知道这些图片分别代表着什么,分别属于什么类,它只需要知道哪些图片类似,和另外哪些图片不类似即可。通俗来讲,我们将这些图片一起输入到编码器中分别得到它们的特征,然后最后学到的特征信息全部映射到一个特征空间内,我们希望类似的图片的特征信息在特征空间内是彼此靠近的,不类似的则彼此远离,这就是对比学习。

3、pretext task

  就拿上面那个对比学习的例子来说吧,即使我们不需要知道这些图片分别是什么(属于什么类),也就是我们不需要知道这些图片的标签信息。但是我们需要知道哪些图片相似,哪些图片不相似,这意味着其实还需要使用标签信息,但是通过去设计一些代理任务(pretext task)比如说常见的instance discrimination代理任务(个体类别,每个数据样本自成一类),去定义一些规则比如说哪些图片类似哪些不类似,从而提供一个监督信号去训练模型,这就是自监督学习。

Abstract

  本文提出了用于无监督视觉表征学习的动量对比(MoCo)。从对比学习作为字典查找的角度来看,论文构建了一个带有队列移动平均编码器的动态字典。这

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值