第一遍
标题以及作者(2020 3.23)
前置知识
-
代理任务(用来生成有监督信号):
Instance Discrimination
同一个图片中的不同块是一类,不同图片就是不同的类
摘要
- 将对比学习视为字典查询任务,构建一个动态的字典。(样本队列+移动平均编码器)
- MoCo学习到的特征可以迁移到下游任务中,在7种下游视觉任务上,让无监督学习比有监督学习表现更好。(Note:特征提取器和迁移下游任务是具有区别的)
结论
- MoCo在一亿数据集上的表现和百万数据集上的表现提升不大,有没有可能是代理任务需要改进。
- 作者提出Mask auto-encoding 有没有可能在CV和NLP中让无监督学习更强。(2021年就出了MAE)
介绍
-
将对比学习视作是一个字典查询工作,anchor作为query在由正样本和负样本组成的字典中,计算差异,寻找出字典中的正样本。
-
要求字典要足够大(能够更好地覆盖图片语义空间);一致性(正样本和负样本需要由相同或者相似的编码器编码)
-
本文模型
第二遍
相关工作
- 对比损失是在表示空间中衡量样本的相似性
- 代理任务(pretext tasks),重建某个图、patch、预测方位、预测顺序
- 不同的对比学习和代理任务可以配对使用
MoCo方法
3.1 对比学习视为字典查找
- InfoNCE(noise contrastive estimation)
L q = − log exp ( q ⋅ k + / τ ) ∑ i = 0 K exp ( q ⋅ k i / τ ) 其