GPT-CV:基于Yolov5的半监督目标检测

关注并星标

从此不迷路

计算机视觉研究院

11e40e46d2bd4db1fb96024126761389.gif

ee6427eb7a11b23757d1d2ed4819eaed.gif

公众号IDComputerVisionGzq

学习群扫码在主页获取加入方式

计算机视觉研究院专栏

作者:Edison_G

主要贡献是提出了一种名为“Efficient Teacher”的半监督目标检测算法。与传统的监督学习算法不同,Efficient Teacher利用无标签数据进行训练,并且在训练过程中使用了半监督学习的方法。这种方法可以有效地利用无标签数据,减少过拟合的风险,并且可以提高模型的泛化能力。

注意:本文主要是GPT解读,如有差异请在留言指出!

01

d5c25b4aec727d4d6144b7a0414b8910.png

概要

4e2a31eaee9219f1a4107929714196ec.png

半监督目标检测(SSOD)已经成功地提高了R-CNN系列和无锚检测器的性能。然而,一级基于锚的检测器缺乏生成高质量或灵活伪标签的结构,导致SSOD中存在严重的不一致性问题。在今天分享中,提出了一个高效的教师框架,用于可扩展和有效的基于单阶段锚的SSOD训练,该框架由密集检测器、伪标签分配器和Epoch适配器组成。Dense Detector是一个基线模型,它以YOLOv5为灵感,使用密集采样技术扩展了RetinaNet。高效教师框架引入了一种新的伪标签分配机制,称为伪标签分配器,它更精细地利用了密集检测器中的伪标签。

Epoch Adaptor是一种为密集探测器提供稳定高效的端到端SSOD训练计划的方法。伪标签分配器防止了在师生相互学习机制期间由大量低质量伪标签引起的可能干扰密集检测器的偏差的发生,并且Epoch适配器利用域和分布自适应来允许密集检测器学习全局分布的一致特征,使得训练与标记数据的比例无关。我们的实验表明,高效教师框架在VOC、COCO标准和COCO附加方面取得了最先进的结果,使用的FLOP比以前的方法更少。据我们所知,这是将SSOD应用于YOLOv5的第一次尝试。

02

5ebd1d451250f7566729d83fcebd5980.png

新框架

f2795b8e7e8271e6caab595f5a3bee50.png

高效教师(Efficient Teacher)是一种新颖高效的半监督目标检测框架,它显著提高了基于单级锚点的检测器的性能。该框架基于师生相互学习的方法,如下图所示,灵感来自以前的工作。提出的伪标签分配器方法根据伪标签的得分将其分为可靠和不确定的伪标签,其中可靠的伪标签用于默认监督训练,不确定的用于指导软损失学生模型的训练。Epoch-Adaptor方法通过在标记数据和未标记数据之间进行域自适应,并计算每个历元中伪标签的阈值,来加速收敛。在整个培训过程中,教师模型采用指数移动平均(EMA)技术进行更新。

ef218e469734713d1eed8f86620d2c42.png

比较RetinaNet和检测聚类器的伪指标分布图,发现:

(a)RetinaNet使用了更少的输入数据,产生了更高的分辨率,暗色表示分数较低;
(b)检测聚类器利用更多的输入数据,根据物体特征和分类结果产生了更强健和更密集的反应。

c27dbfd7b286bb8633f681739971572f.png

伪标签过滤是 SSOD 中常用的一种方法,阈值设置太低会产生错误的伪标签,而阈值设置太高则可能排除可靠的伪标签,从而导致分配不佳,进而影响网络训练的效果。为了解决这个问题,我们提出了伪标签分配器方法,该方法根据高低阈值将伪标签分为可靠和不可靠的类别,分别为目标 L 提高单目标 SSOD 中伪标签的质量。

c2e98372870ecebf7b853835f04fec69.png

Main epoch 表示整个训练期间不中断,并且在执行期间没有任何新权重的加载。有效教师的训练策略:(a)在标记数据上进行监督训练,然后在未标记数据上进行基于标记的 SSOD 训练;(b)在标记数据上进行监督训练,并在未标记数据上进行基于标记的 SSOD 训练以外的额外基于标记的 SSOD 训练;(c)在标记数据和未标记数据上进行端到端训练,并使用适应域和分布的 Epoch 适配器以改进收敛和特征分布。

72ed8931432fa147d11f1b686670005e.png

03

74ad6aaeb6b99ccdef9a6ad22f9557c2.png

实验

d070df3bcc67f2d0debf387e8b06d39e.png

fb9e4b7de710f15d24d4491cdcb9b53b.png

Experimental results on COCO-standard (AP50:95)

897252d2390f1ba6e2968cfbb50a3de8.png

PASCAL-VOC的实验结果。†表示使用ImageNet预训练骨干来初始化高效教师

© THE END 

转载请联系本公众号获得授权

116c881275755eb74a332b537ddf3409.gif

计算机视觉研究院学习群等你加入!

ABOUT

计算机视觉研究院

计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

VX:2311123606

7e6023a8dc59635de7eec3386a8e0ab6.png

 往期推荐 

🔗

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: GPT-NeoX是一个基于Deepspeed库的GPU上的类似于GPT-3的模型并行模型。该模型是由EleutherAI团队在2021年提出的。它采用的是大规模分布式训练的方式,使得模型可以处理更大规模的数据集,具有更强的泛化能力。 相比于传统的模型训练方式,GPT-NeoX采用Deepspeed库实现了模型并行训练,实现了多卡训练和多节点训练,从而更好地利用GPU资源加速模型的训练速度。此外,GPT-NeoX还引入了一些新的优化技术,如局部梯度累积和梯度Chip-Level Pruning,进一步提高了模型的训练效率和性能。 GPT-NeoX的另一个特点是它采用了与GPT-3类似的Transformer结构,可以处理各种NLP任务,如文本生成、问答系统、机器翻译、情感分析等。GPT-NeoX还提供了基于一种新型的自监督训练方式的Unsupervised Pretraining功能,可以在没有标注数据的情况下对模型进行预训练,从而更好地适应各种NLP任务。 总之,GPT-NeoX是一款基于Deepspeed库的GPU上的类似于GPT-3的模型并行模型,采用多卡和多节点训练的方式,实现了更高效的模型训练。同时,它还具有与GPT-3类似的Transformer结构和Unsupervised Pretraining功能,适用于各种NLP任务。 ### 回答2: GPT-NeoX是一个基于Deepspeed库的GPU上的类似于GPT-3的模型并行模。该模型采用了分布式训练的技术,使得大规模的预训练模型的训练成为可能。 GPT-3模型是当前自然语言处理领域中最先进的模型之一,但是在模型规模扩大后,面临着训练时间长,并且需要大量计算资源的问题。为了解决这个问题,GPT-NeoX使用了Deepspeed库,通过将模型划分成多个微迭代,实现了模型的分布式训练。 在GPT-NeoX模型中,微迭代的数量决定了模型的分布式训练的程度。越多的微迭代数表示模型的分布式训练程度越高,但同时也会增加训练的时间。因此,在GPT-NeoX模型的设计中,需要根据模型的规模选择适当的微迭代数,以充分利用计算资源,同时保证训练时间不过长。 通过使用Deepspeed库,GPT-NeoX模型不仅实现了大规模预训练模型的训练,也获得了很好的训练效果。这证明了分布式训练对于提高模型性能和训练效率的重要性。未来,GPT-NeoX模型的研究还将继续深入探索并发控制算法及单机扩展策略的优化,这些工作将进一步提高分布式训练的效率及模型的性能。 ### 回答3: GPT-NEOX是一种基于Deepspeed库的GPU上的类似于GPT-3的模型并行模型。这个模型的目标是让机器能够像人一样生成自然语言,使得机器能够自动地产生文本和对话,而这一过程是通过机器学习算法实现的。 GPT-NEOX采用了一种全新的架构,利用并行算法使得模型训练的速度更加的快捷和高效。同时,为了更好地提升模型的性能,GPT-NEOX在模型更新和内存使用方面也进行了优化,使得模型的训练和应用更加稳定。 GPT-NEOX的设计理念是通过模型并行来增加计算资源,提高模型的计算速度和效率。它与GPT-3一样,使用了大量的参数和数据来训练,并有着相似的自然语言处理技术,但它也进行了一些改进,例如采用了不同的架构和算法。 GPT-NEOX的模型精度和应用性能已经有了很大的提升,同时也得到了广泛的应用和推广。我们相信,在未来的日子里,GPT-NEOX还会继续深入研究和优化,成为更加高效、精准和可靠的自然语言处理算法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

计算机视觉研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值