读论文——MoCo(何恺明 CV中的无监督)

MoCo将对比学习视为字典查询,使用动态样本队列和动量编码器保持特征一致性。在多个下游视觉任务上,无监督学习的性能超越了有监督学习。论文强调了大字典和负样本编码器更新对于无监督学习的重要性,并对CV领域的无监督学习发展产生了深远影响。
摘要由CSDN通过智能技术生成

第一遍

标题以及作者(2020 3.23)

在这里插入图片描述

前置知识

  1. 代理任务(用来生成有监督信号):

    Instance Discrimination

    同一个图片中的不同块是一类,不同图片就是不同的类

摘要

  1. 将对比学习视为字典查询任务,构建一个动态的字典。(样本队列+移动平均编码器)
  2. MoCo学习到的特征可以迁移到下游任务中,在7种下游视觉任务上,让无监督学习比有监督学习表现更好。(Note:特征提取器和迁移下游任务是具有区别的)

结论

  1. MoCo在一亿数据集上的表现和百万数据集上的表现提升不大,有没有可能是代理任务需要改进。
  2. 作者提出Mask auto-encoding 有没有可能在CV和NLP中让无监督学习更强。(2021年就出了MAE)

介绍

  1. 将对比学习视作是一个字典查询工作,anchor作为query在由正样本和负样本组成的字典中,计算差异,寻找出字典中的正样本。

  2. 要求字典要足够大(能够更好地覆盖图片语义空间);一致性(正样本和负样本需要由相同或者相似的编码器编码)

  3. 本文模型

    在这里插入图片描述

第二遍

相关工作

  1. 对比损失是在表示空间中衡量样本的相似性
  2. 代理任务(pretext tasks),重建某个图、patch、预测方位、预测顺序
  3. 不同的对比学习和代理任务可以配对使用

MoCo方法

3.1 对比学习视为字典查找

  1. InfoNCE(noise contrastive estimation)
    L q = − log ⁡ exp ⁡ ( q ⋅ k + / τ ) ∑ i = 0 K exp ⁡ ( q ⋅ k i / τ ) 其
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值