NeurIPS 2020 | 聚焦自监督学习

©PaperWeekly 原创 · 作者|张一帆

学校|华南理工大学本科生

研究方向|CV,Causality

知乎ID|yearn

本文梳理了四篇来自 NeurIPS 2020 和对比学习相关的文章,其中两篇为 spotlight。

InvP

论文标题:

Unsupervised Representation Learning by Invariance Propagation

论文链接:

https://arxiv.org/abs/2010.11694

Conclusion: 学习 category-level 的不变性表示。

传统的 contrastive learning 是属于 instance-level 的不变性表示,即每个图片单独为一类,该图片与其 argumented images 包含的类别信息保持不变,但是不能保证同一类的两张图片在隐空间相互接近(如何保证同一类的两张图片在隐空间相互接近:有监督对比学习可以在有 label 的情况下实现 category-level 的不变性表示。)。

Smoothness Assumption [1]:文章的立足点,在一个高密度区域内,如果两个 image 的特征 接近,那么他们的语义信息(或者标签)相似。

Contributions:

Positive sample discovery:

基于连续性假设,一个 high-density region 往往是同一类。进行 步以下过程:每一步中,将当前已经发现的正样本的所有 最近邻加到正样本集中。比起使用传统的 KNN 选择 个最近邻,这里将 设置的比较小,因此不会选到 这种不在同一个 high-density region 的点,以此在无标签的情况下挖掘同一类别的不同实例,有了这些 category-level 的正样本,我们就能更容易得到 category-level 的不变性表示。

Hard sampling mining:

对于正样本和负样本,这里都进行了难例挖掘,对于一个样本 ,他的挖掘损失定义为 , 是其正样本难例挖掘结果, 则是难负样本集,分别定义如下

  • Hard positive sampling:在上述找到的正样本集合 中选 个与 相似度最小的构成集合 (上图中 C 相对于 A 即最难正样本)

  • Hard negative sampling:找 近邻构成

  • 1
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值