CVPR2022 Crafting Better Contrastive Views for Siamese Representation Learning

Crafting Better Contrastive Views for Siamese Representation Learning

CVPR2022
即插即用,用于对比学习中创建更好的对比视图,可以用来提点。
论文链接:https://arxiv.org/abs/2202.03278

1. Motivation

在对比学习中,以往的大多数工作只是简单的采取随机采样的方法构造同一图像的不同视图,可能会降低视图的语义信息。如图,可能会生成语义上差别很大的样本(a),误导网络;另外是随机裁剪不可能总是携带足够的对象方差,因此可能产生很相似的样本(c)。
在这里插入图片描述

2. Method

作者提出一种语义感知的定位方案指导裁剪,并提出了一种中心抑制抽样策略以避免出现相似性较大的样本对。

语义感知定位(semantic-aware localization):
以无监督的方式减少假阳性。首先,在早期的训练中通过随机裁剪先得到热图中的bounding box,用以获取目标的定位。在生成样本对的时候,尽量把目标裁剪在样本中,防止生成语义过于不相似的样本。
中心抑制采样(center-suppressed sampling):
加入了语义感知还会出现一个问题,就是语义过于相似。为了抑制这种现象,提出了中心抑制的方法。简单来说,就是让采样区域在包含同样目标的同时尽可能的远。作者引入beta分布进行U形采样,这样裁剪可以分散在可操作区域的边界线附近,从而减少大规模重叠的情况。

3. Experiment

提点明显。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CVPR 2022是计算机视觉和模式识别领域的顶级会议,而多模态研究是其重要的研究方向之一。多模态处理涉及处理和融合来自不同感知模态(例如图像、语音、文本等)的信息,以提高对现实场景的理解能力。 在CVPR 2022多模态方向的研究中,一些关键的趋势和话题将得到关注。首先,基于深度学习的多模态方法将继续发展,因为其在处理多模态数据中的高级特征表示方面取得了显著成果。这些方法使用强大的神经网络架构,能够跨不同感知模态获取数据并实现融合。此外,对于多模态研究的探索还将进一步推动更加复杂和深层次的网络设计,以实现更好的融合效果。 其次,跨模态学习也是CVPR 2022多模态研究的重要方向之一。这项研究旨在利用不同模态之间的共享知识,通过迁移学习和领域自适应等技术,从一个模态中的标记数据中学习到其他未标记模态的有效表达。这对于那些有限标记数据的模态研究任务非常有价值。 最后,CVPR 2022多模态方向还将关注各种真实应用场景中的挑战和问题。例如,多模态医学图像处理和分析领域的研究,可以辅助医生进行更准确的诊断和疾病检测。另外,多模态文本和图像生成方面的研究,也能够推动现实世界中的创造性设计和内容生成。 总之,CVPR 2022多模态方向的研究将继续推动计算机视觉和模式识别领域的发展。通过深度学习、跨模态学习以及应用于不同领域的研究,我们可以期待在多模态数据处理和融合方面取得更多突破和创新。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值