©PaperWeekly 原创 · 作者|张一帆
学校|华南理工大学本科生
研究方向|CV,Causality
知乎ID|yearn
本文梳理了四篇来自 NeurIPS 2020 和对比学习相关的文章,其中两篇为 spotlight。
InvP
论文标题:
Unsupervised Representation Learning by Invariance Propagation
论文链接:
https://arxiv.org/abs/2010.11694
Conclusion: 学习 category-level 的不变性表示。
传统的 contrastive learning 是属于 instance-level 的不变性表示,即每个图片单独为一类,该图片与其 argumented images 包含的类别信息保持不变,但是不能保证同一类的两张图片在隐空间相互接近(如何保证同一类的两张图片在隐空间相互接近:有监督对比学习可以在有 label 的情况下实现 category-level 的不变性表示。)。
Smoothness Assumption [1]:文章的立足点,在一个高密度区域内,如果两个 image 的特征 接近,那么他们的语义信息(或者标签)相似。
Contributions:
Positive sample discovery:
基于连续性假设,一个 high-density region 往往是同一类。进行 步以下过程:每一步中,将当前已经发现的正样本的所有 最近邻加到正样本集中。比起使用传统的 KNN 选择 个最近邻,这里将 设置的比较小,因此不会选到 这种不在同一个 high-density region 的点,以此在无标签的情况下挖掘同一类别的不同实例,有了这些 category-level 的正样本,我们就能更容易得到 category-level 的不变性表示。
Hard sampling mining:
对于正样本和负样本,这里都进行了难例挖掘,对于一个样本 ,他的挖掘损失定义为 , 是其正样本难例挖掘结果, 则是难负样本集,分别定义如下
Hard positive sampling:在上述找到的正样本集合 中选 个与 相似度最小的构成集合 (上图中 C 相对于 A 即最难正样本)
Hard negative sampling:找 的 近邻构成 ,