Crafting Better Contrastive Views for Siamese Representation Learning
CVPR2022
即插即用,用于对比学习中创建更好的对比视图,可以用来提点。
论文链接:https://arxiv.org/abs/2202.03278
1. Motivation
在对比学习中,以往的大多数工作只是简单的采取随机采样的方法构造同一图像的不同视图,可能会降低视图的语义信息。如图,可能会生成语义上差别很大的样本(a),误导网络;另外是随机裁剪不可能总是携带足够的对象方差,因此可能产生很相似的样本(c)。
2. Method
作者提出一种语义感知的定位方案指导裁剪,并提出了一种中心抑制抽样策略以避免出现相似性较大的样本对。
语义感知定位(semantic-aware localization):
以无监督的方式减少假阳性。首先,在早期的训练中通过随机裁剪先得到热图中的bounding box,用以获取目标的定位。在生成样本对的时候,尽量把目标裁剪在样本中,防止生成语义过于不相似的样本。
中心抑制采样(center-suppressed sampling):
加入了语义感知还会出现一个问题,就是语义过于相似。为了抑制这种现象,提出了中心抑制的方法。简单来说,就是让采样区域在包含同样目标的同时尽可能的远。作者引入beta分布进行U形采样,这样裁剪可以分散在可操作区域的边界线附近,从而减少大规模重叠的情况。
3. Experiment
提点明显。