CVPR2023高质量论文 | Consistent-Teacher:半监督目标检测超强SOTA

关注并星标

从此不迷路

计算机视觉研究院

97834409f12a8ceb6ad8f064489d8b86.gif

448c4ee5e8cc8fb18f4e67f197baf419.gif

公众号IDComputerVisionGzq

学习群扫码在主页获取加入方式

91b33467011b5673498f34162373b861.png

论文地址:https://arxiv.org/abs/2209.01589

计算机视觉研究院专栏

作者:Edison_G

《Consistent-Teacher: Towards Reducing Inconsistent Pseudo-targets in Semi-supervised Object Detection》是一篇关于半监督目标检测的论文。该论文提出了一种新的方法,称为“Consistent-Teacher”,用于减少伪目标(pseudo-targets),这些伪目标是由于标签的不一致性而引入到训练中的错误对象。

一、总概述

在本研究中,研究者深入研究了半监督目标检测(SSOD)中伪目标的不一致性。核心观察结果是,振荡的伪目标破坏了精确的半监督检测器的训练。它不仅给学生的训练注入了噪声,而且导致了分类任务的严重过拟合。因此,研究者提出了一个系统的解决方案,称为一致教师,以减少不一致。首先,自适应锚分配(ASA)取代了基于静态IoU的策略,使学生网络能够抵抗噪声伪边界盒;然后,通过设计三维特征对齐模块(FAM-3D)来校准子任务预测。它允许每个分类特征在任意尺度和位置自适应地查询回归任务的最优特征向量。最后,高斯混合模型(GMM)动态地修正了伪框的得分阈值,从而稳定了基本事实的数量

94a607b9947473c03cdc31d82d9783c3.png

二、动机

在这项研究中,研究者指出,半监督检测器的性能仍然在很大程度上受到伪目标不一致性的阻碍。不一致意味着伪框可能非常不准确,并且在训练的不同阶段变化很大。因此,不一致的振荡边界盒(bbox)会使SSOD预测产生累积误差。与半监督分类不同,SSOD有一个额外的步骤,即为每个RoI/锚点分配一组伪框作为密集监督。常见的两级和单级SSOD网络采用静态的锚分配标准,例如IoU分数或中心度。据观察,静态作业对教师预测的边界框中的噪声很敏感,因为假边界框中一个小的扰动可能会极大地影响作业结果。因此,它导致未标记图像上的严重过拟合。

为了验证这一现象,在MS-COCO 10%数据的基础上,用基于IoU的标准分配来训练单级探测器。如下图所示,教师输出的微小变化导致伪框边界中的强噪声,导致在基于IoU的静态分配下,错误目标与附近对象相关联。这是因为一些未激活的主播在学生网络中被错误地分配为阳性。因此,网络会过拟合,因为它会为相邻对象生成不一致的标签。在未标记图像的分类损失曲线中也观察到过拟合。

不一致是指伪框可能高度不准确,并且在不同的训练阶段差异很大。

61428313cb10a9d5a9cde564d8a5cc28.jpeg

Motivation: Inconsisteny For SSOD

(左)比较“Mean-Teacher ”和“Consistent-Teacher”的训练损失。在Mean-Teacher中,不一致的伪目标导致分类分支上的过拟合,而回归损失变得难以收敛。相反,新提出的方法为学生设定了一致的优化目标,有效地平衡了这两项任务并防止了过度拟合。

(右)伪标签和分配动态的快照。绿色和红色的框指的是北极熊的真值和伪值。红点是为伪标签指定的定位框。热图表示教师预测的密集置信度分数(越亮越大)。附近的木板最终在基线中被错误地归类为北极熊,而提出的自适应分配防止了过度拟合。

三、实验及结果

研究者的工作解决了SSOD的不一致问题。以下是训练过程中不同时间步长的一些样本检测结果:

Red: False Positive; Blue: True Postive; Green: Ground-truth

5241ab724f17754b5a3479dc29d8187a.gif

Mean-Teacher

4437eea936dc519f4076454f3b77ac10.gif

Consistent-Teacher

aee30b9072b240c6e08c9dafd5313f8d.gif

Mean-Teacher

924ffe6d8df02ef1cfb4c6c767abef01.gif

Consistent-Teacher

593e59a003383b3f89bb97d3a3f7284a.png

© THE END 

转载请联系本公众号获得授权

038df8f3143881d5875ce81dc5802aa6.gif

计算机视觉研究院学习群等你加入!

ABOUT

计算机视觉研究院

计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

VX:2311123606

81dbe8606df49103ef17682c1d5b88dc.png

往期推荐

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 半监督目标检测是一种目标检测方法,它在少量的有标注数据和大量的无标注数据的情况下进行训练。它通过利用有标注数据的信息来帮助模型学习如何识别目标,并利用无标注数据来进一步提模型的泛化能力。 目前,半监督目标检测的研究主要集中在以下几个方面:生成式方法,分类方法,联合分析方法以及深度学习方法。其中,生成式方法利用生成模型来生成目标的虚假标注,以此来增加训练数据的数量;分类方法则通过分类器来识别目标;联合分析方法则将生成模型和分类模型结合起来;深度学习方法则利用深度神经网络来进行目标检测。 总的来说,半监督目标检测是一个广泛研究的方向,它既能利用有限的有标注数据来提模型的准确性,又能利用大量的无标注数据来增加模型的泛化能力。因此,它在实际应用中具有广泛的意义。 ### 回答2: 半监督目标检测是一种结合有标注和无标注数据的目标检测方法。在传统的目标检测中,通常需要大量标注数据来训练模型,但在许多场景中,获得大量标注数据是非常昂贵和耗时的。 半监督目标检测通过利用有标注数据和无标注数据的优势来提检测性能。首先,使用有标注数据来训练一个初步的目标检测模型。然后,利用这个模型,对无标注数据进行预测,得到伪标签。接下来,可以将带有伪标签的无标注数据与有标注数据一起重新训练模型,以进一步提性能。这个过程可以迭代多次,逐步提升模型的准确性。 半监督目标检测的关键挑战之一是如何确定和使用伪标签。一种常见的方法是使用置信度阈值来筛选伪标签,只保留置信度的预测结果。此外,还可以使用一些迭代策略来进一步去除错误的伪标签。另外,还需要注意的是,伪标签的引入可能会引入噪音,因此需要设计合理的方法来处理噪音数据。 半监督目标检测的研究还面临其他一些挑战,如选择有标注数据和无标注数据的比例、如何利用无标注数据的信息以及应用于不同场景下的性能评估等。当前的研究主要关注于如何更好地利用无标注数据来增目标检测性能,以及在真实场景中应用的可行性和效果。 总的来说,半监督目标检测是一种通过结合有标注和无标注数据来提目标检测性能的方法。虽然仍面临一些挑战,但半监督目标检测在实际应用中具有较大的潜力,并且已经取得了一些令人鼓舞的研究成果。 ### 回答3: 半监督目标检测是一种利用少量标注样本和大量未标注样本进行目标检测的方法。在传统的目标检测任务中,需要大量标注样本来训练模型,这一过程非常耗时耗力。而半监督目标检测则可以通过利用未标注样本的信息来提模型的性能,减少标注样本的需求。 半监督目标检测的研究主要集中在两个方面:基于生成模型和基于自训练的方法。 基于生成模型的方法通过训练一个生成模型,来学习数据的分布信息。其中,一种常用的方法是生成对抗网络(GAN),通过生成模型生成的样本与真实样本进行对抗,来提模型的鲁棒性和泛化能力。另外,还有一些基于图模型的方法,通过构建样本之间的关系图,并利用图模型进行半监督学习。 基于自训练的方法则是利用未标注样本自动生成标注样本来训练模型。这些方法通常包括两个步骤:首先使用标注样本训练一个初始模型,然后利用这个模型对未标注样本进行伪标注。之后,在结合标注样本和伪标注样本进行模型的进一步训练。这种方法的优势在于可以利用大量未标注样本,但也存在伪标注引入的误差问题。 除了以上两类方法,还有一些其他的半监督目标检测方法,如利用生成模型和图模型相结合的方法,以及基于无监督目标检测预训练的方法等。 总的来说,半监督目标检测是在目标检测任务中利用未标注样本的一种方法,通过利用未标注样本的信息,可以减少标注样本的需求,提模型的性能。目前,半监督目标检测仍然是一个活跃的研究领域,未来还有很大的研究空间和发展潜力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

计算机视觉研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值