CVPR2022 Crafting Better Contrastive Views for Siamese Representation Learning

Crafting Better Contrastive Views for Siamese Representation Learning

CVPR2022
即插即用,用于对比学习中创建更好的对比视图,可以用来提点。
论文链接:https://arxiv.org/abs/2202.03278

1. Motivation

在对比学习中,以往的大多数工作只是简单的采取随机采样的方法构造同一图像的不同视图,可能会降低视图的语义信息。如图,可能会生成语义上差别很大的样本(a),误导网络;另外是随机裁剪不可能总是携带足够的对象方差,因此可能产生很相似的样本(c)。
在这里插入图片描述

2. Method

作者提出一种语义感知的定位方案指导裁剪,并提出了一种中心抑制抽样策略以避免出现相似性较大的样本对。

语义感知定位(semantic-aware localization):
以无监督的方式减少假阳性。首先,在早期的训练中通过随机裁剪先得到热图中的bounding box,用以获取目标的定位。在生成样本对的时候,尽量把目标裁剪在样本中,防止生成语义过于不相似的样本。
中心抑制采样(center-suppressed sampling):
加入了语义感知还会出现一个问题,就是语义过于相似。为了抑制这种现象,提出了中心抑制的方法。简单来说,就是让采样区域在包含同样目标的同时尽可能的远。作者引入beta分布进行U形采样,这样裁剪可以分散在可操作区域的边界线附近,从而减少大规模重叠的情况。

3. Experiment

提点明显。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值