轻量级网络论文精度笔记(二):《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object ..》

论文以及源码获取

论文下载:点击
源码:点击

论文题目

《 YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors》
《YOLOv7:对于最新的实时目标检测器设置的可训练的免费包》

参考文献

Wang C-Y, Bochkovskiy A, Liao H-Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[A]. arXiv,2022[2022-11-28].

1. 介绍

实时目标检测在计算机视觉中是一个非常重要的课题,因为它往往是计算机视觉系统中必不可少的组成部分。例如,多目标跟踪[94,93]、自动驾驶[40,18]、机器人[35,58]、医学图像分析[34,46]等。执行实时对象检测的计算设备通常是一些移动CPU或GPU,以及由主要制造商开发的各种神经处理单元(NPU),例如,苹果神经引擎(Apple)、神经计算棒(Intel)、Jetson AI边缘设备(Nvidia)、边缘TPU(谷歌)、神经处理引擎(Qualcomm)、AI处理单元(联发科)、AI soc (Kneron)都是npu。上面提到的一些边缘设备专注于加速不同的操作,如vanilla卷积、深度卷积或MLP操作。

​ 近年来,针对不同的边缘设备,还开发了实时目标检测器。比如说这个devel-MCUNet[49,48]和NanoDet[54]的开发重点是生产低功耗的单片机和提高边缘CPU的推理速度。至于YOLOX[21]和YOLOR[81]等方法,其重点是提高各种gpu的推理速度。最近,实时目标检测器的发展集中在高效架构的设计上。而能够在CPU上使用的实时对象检测器[54,88,84,83],其设计多基于MobileNet[28,66,27]、ShuffleNet[92,55]或GhostNet[25]。另一种主流的实时对象检测器是针对GPU开发的[81,21,97],它们大多使用ResNet[26]、DarkNet[63]或DLA[87],然后使用CSPNet[80]策略来优化架构。本文提出的方法的发展方向不同于目前主流的实时目标检测器。除了体系结构优化,我们提出的方法将专注于训练过程的优化。我们将重点研究一些优化的模块和优化方法,这些优化方法可以在不增加推理成本的前提下,增加训练成本,提高目标检测的准确性。我们将提出的模块和优化方法称为可训练的免费模块。

近年来,模型重新参数化[13,12,29]和动态标签分配[20,17,42]已成为网络训练和目标检测中的重要课题。主要是在上述新概念提出之后,目标检测器的训练又出现了许多新的问题。在本文中,我们将介绍我们发现的一些新问题,并提出有效的方法来解决它们。在模型重参数化方面,利用梯度传播路径的概念,分析了适用于不同网络层的模型重参数化策略,提出了规划重参数化模型。此外,当我们发现使用动态标签分配技术,训练具有多个输出层的模型会产生新的问题。那就是:“如何为不同分支的输出分配动态目标?”针对这一问题,我们提出了一种新的标签分配方法,即由粗到细的导向性标签分配方法。
在这里插入图片描述

2. 贡献

  • 设计了几种可训练的免费包方法,使得实时目标检测在不增加推理成本的前提下,大大提高了检测精度;
  • 对于目标检测方法的发展,我们发现了两个新的问题,即重新参数化的模块如何替换原始模块,动态标签分配策略如何处理对不同输出层的分配。
  • 提出了能有效利用参数和计算的“扩展”和“复合缩放”实时目标检测器方法;
  • 该方法可有效减少现有实时目标检测器40%左右的参数和50%的计算量,具有更快的推理速度和更高的检测精度。

2. 相关工作

2.1 实时目标检测器

​目前最先进的实时目标检测器主要基于YOLO和FCOS。能够成为最先进的实时目标检测器通常需要以下特征:

  1. 更快和更强的网络架构;
  2. 更有效的特征整合方法;
  3. 更精确的检测方法;
  4. 更鲁棒的损失函数;
  5. 更有效的标签分配方法;
  6. 更有效的训练方法。

在本文中,我们不打算探索需要额外数据或大模型的自我监督学习或知识蒸馏方法。相反,我们将针对上述(4)、(5)和(6)相关的最先进方法,设计新的可训练的免费包方法。

2.2 模型重参数化

模型重参数化技术在推理阶段将多个计算模块合并为一个。模型重参数化技术可以看作是一种集成技术,我们可以将其分为模块级集成和模型级集成两大类。为了获得最终的推理模型,有两种常见的模型级重参数化实践。一种是用不同的训练数据训练多个相同的模型,然后对多个训练过的模型进行加权平均。另一种是对不同迭代次数下模型的权重进行加权平均。模块级重参数化是近年来比较热门的研究课题这种方法在训练时将一个模块划分为多个相同或不同的模块分支,在推理时将多个分支模块集成为一个完全等价的模块。然而,并不是所有提出的重参数化模块都可以完美地应用于不同的体系结构。考虑到这一点,我们开发了新的重新参数化模块,并为各种体系结构设计了相关的应用策略。

2.3 模型缩放

模型缩放是一种放大或缩小已经设计好的模型,使其适合不同的计算设备的方法。模型缩放方法通常采用不同的缩放因子,如分辨率(输入图像的大小)、深度(层数)、宽度(通道数)、阶段(特征金字塔数),以达到在网络参数量、计算量、推理速度和精度方面的良好权衡。**网络架构搜索(NAS)**是常用的模型扩展方法之一。NAS可以自动从搜索空间中搜索合适的缩放因子,而不需要定义太复杂的规则。NAS的缺点是需要非常昂贵的计算来完成对模型缩放因子的搜索。在[15]中,研究者分析了缩放因子与参数量和操作量的关系,试图直接估计一些规则,从而得到模型缩放所需的缩放因子。查阅文献发现,几乎所有的模型标度方法都是独立分析单个标度因子的,甚至复合标度类的方法也是独立优化标度因子的。这是因为大多数流行的NAS体系结构处理的是不太相关的伸缩因素。我们观察到,所有基于连接的模型,如DenseNet[32]或VoVNet[39],当这些模型的深度缩放时,会改变某些层的输入宽度。由于所提出的体系结构是基于串联的,我们必须为该模型设计一种新的复合缩放方法。

3. 架构

3.1 扩展的高效层聚合网络

​ 在大多数关于设计高效架构的文献中,主要的考虑因素仅仅是参数的数量、计算量和计算密度。从内存访问成本的特点出发,Ma等人[55]还分析了输入/输出通道比、体系结构分支数量和元素智慧操作对网络推理速度的影响。Dollár等[15]在进行模型缩放时还考虑了激活,即更多地考虑卷积层输出张量中的元素数量。图2 (b)中CSP VoVNet[79]的设计是VoVNet[39]的变体,除了考虑上述的基本设计问题外,CSP VoVNet[79]的体系结构还分析了梯度路径,以使不同层的权重学习到更多不同的特征。**上述梯度分析方法使推理速度更快、更准确。图2 ©**中的ELAN[1]考虑了以下设计策略——“如何设计一个高效的网络?”他们得出了一个结论:通过控制最短最长的梯度路径,一个更深层次的网络可以有效地学习和收敛。在本文中,我们提出了基于ELAN的Extended-ELAN (E-ELAN),其主要架构如图2 (d)所示。

在大规模的ELAN中,无论梯度路径长度和计算块的堆叠数量如何,它都达到了一个稳定的状态。如果无限制地堆叠更多的计算块,则可能破坏这种稳定状态,参数利用率下降。

​ 本文提出的E-ELAN使用扩展、shuffle、合并基数来实现在不破坏原有梯度路径的情况下不断增强网络学习的能力。在架构方面,E-ELAN只改变了计算块的架构,而过渡层的架构则完全不变。**我们的策略是利用群卷积来扩展计算块的通道和基数。**我们将对一个计算层的所有计算块应用相同的组参数和通道乘法器,然后,根据设定的组参数g将每个计算块计算出的特征映射洗牌到g组中,然后将它们连接在一起。此时,每组特征图中的通道数量将与原始体系结构中的通道数量相同,最后,我们添加g组特征映射来执行合并基数。除了维护原始的ELAN设计架构,E-ELAN还可以引导不同的计算块组学习更多不同的特性。

3.2 基于连接的模型的模型缩放

在这里插入图片描述

模型缩放的主要目的是调整模型的某些属性,生成不同尺度的模型,以满足不同推理速度的需要。例如,EfficientNet[72]的缩放模型考虑了宽度、深度和分辨率。而scaled-YOLOv4[79],其缩放模型是调整级数。在[15]中,Dollár等分析了vanilla卷积和组卷积在进行宽度和深度缩放时对参数量和计算量的影响,并以此设计了相应的模型缩放方法。以上方法主要应用于PlainNet或ResNet等体系结构中。当这些架构在执行放大或缩小缩放时,每一层的入度和出度都不会发生变化,因此我们可以独立分析每个缩放因子对参数量和计算量的影响。然而,如果将这些方法应用到基于连接的体系结构中,我们会发现,当对深度进行放大或缩小缩放时,紧接在基于连接的计算块之后的转换层的入度会减少或增加,如图3 (a)和(b)所示。

从上述现象可以推断,对于基于串联的模型,我们不能单独分析不同的缩放因子,而必须综合考虑。以缩放深度为例,这样的操作将导致转换层的输入通道和输出通道之间的比率发生变化,这可能会导致模型的硬件使用率下降。因此,对于基于拼接的模型,必须提出相应的复合模型缩放方法。当我们缩放计算块的深度因子时,我们还必须计算该块的输出通道的变化。然后,我们将对过渡层进行同样量的宽度因子缩放,结果如图3 ©所示。我们提出的复合缩放方法可以保持模型在初始设计时的属性,并保持最佳结构。

4.可训练的免费包

4.1 Planned re-parameterized convolution

在这里插入图片描述

虽然RepConv[13]在VGG上取得了优异的性能[68],但当我们直接将其应用到ResNet[26]和DenseNet[32]等体系结构上时,其精度会显著降低。我们使用梯度流传播路径来分析重新参数化卷积如何与不同的网络相结合。我们还设计了相应的规划重参数化卷积。

RepConv实际上在一个卷积层中结合了3 × 3卷积、1 × 1卷积和恒等连接。通过分析RepConv与不同体系结构的结合及其相应的性能,我们发现RepConv中的身份连接破坏了ResNet中的残差和DenseNet中的连接,为不同的特征映射提供了更多的梯度多样性。基于以上原因,我们使用无标识连接的RepConv (RepConvN)来设计规划的重参数化卷积的体系结构。在我们的思想中,当一个带有残差或拼接的卷积层被重新参数化的卷积代替时,应该没有恒等连接。图4显示了我们设计的在PlainNet和ResNet中使用的“计划重参数化卷积”的一个例子。至于计划完成的基于残差模型和基于级联模型的再参数化卷积实验,将在消融研究环节进行介绍。

4.2 Coarse for auxiliary and fine for lead loss

在这里插入图片描述

深度监督是深度网络训练中常用的一种技术,其主要思想是在网络中间层增加额外的辅助头,以此作为辅助损失来给浅层网络权重作指导。即使对于 ResNet 和 DenseNet 这样通常收敛良好的架构,深度监督仍然可以提高模型在许多任务上的性能。下图 a、b 分别展示了 没有 和 有 深度监督的目标检测器架构。在论文中,作者把最终输出的头部称为 引导头lead head,将辅助训练的头部称为 辅助头auxiliary head。
​ 接下来要讨论标签分配问题。过去,在深度网络的训练中,标签通常就是指 ground truth,根据给定的规则生成硬标签。然而近年来,以目标检测为例,研究人员往往利用网络预测输出的质量和分布,再考虑 ground truth 真实值,然后使用一个计算和优化的方法来生成可靠的软标签 soft label。例如,YOLO 使用 bounding box 回归预测 IOU 和 ground truth 作为目标的软标签。在论文中,作者将预测结果和 ground truth 相结合并分配软标签的机制称为 “标签分配器 label assigner”。

​ 无论 auxiliary head 或 lead head 的情况如何,都需要对最终目标进行深度监督训练。作者在开发软标签分配器相关技术的过程中,偶然发现了一个新的衍生问题,即:如何分配软标签给 auxiliary head 和 lead head。相关文献还没有探讨过这个问题。如下图c,目前最流行的方法是将 auxiliary head 和 lead head 分开,利用各自的预测结果和 ground truth 进行标签分配。本文提出的方法是一种通过 lead head 预测来同时引导 auxiliary head 和 lead head 标签分配的方法。换句话说,就是以 lead head 预测为指导,生成从粗到细 coarse-to-fine 的层次标签,分别用于 auxiliary head 和 lead head 学习。提出的两种深度监督标签分配策略分别如下图d 和 e。

​ Lead head guided label assigner 主要根据 lead head 的预测结果和 ground truth 进行计算,通过优化生成软标签。这套软标签将作为 auxiliary head 和 lead head 的 target 来训练模型。这样做的原因是 lead head 具有较强的学习能力,由此生成的软标签应该更能代表源数据和目标数据之间的分布和相关性。我们可以把这种学习称为 广义的残差学习。通过让较浅的 auxiliary head 直接学习 lead head 已经学习过的信息,lead head 将更多精力专注于学习还未学习的残差信息。

Coarse-to-fine lead head guided label assigner 是利用 lead head 的预测结果和 ground truth 来生成软标签。然而在此过程中,生成了两组不同的软标签,即 粗标签 和 细标签,其中细标签和 lead head 引导标签生成器生成的软标签相同,而粗标签是通过放宽正样本分配过程的约束,允许更多的 grids 作为正目标来生成的。这是因为 auxiliary head 的学习能力不如 lead head 强,为了避免丢失需要学习的信息,在目标检测任务中需要重点优化 auxiliary head 的召回。对于 lead head 的输出,可以从高查全率的结果中 过滤出 高精度的结果,作为最终输出。但必须注意的是,如果粗标签的附加权重接近细标签的附加权重,可能会在最终预测的时候产生较差的先验。因此,为了使这些额外的粗的 positive grids 影响较小,作者在解码器中加入了限制,使额外的粗的 positive grids 不能完美地产生软标签。上述机制允许细标签和粗标签的重要性在学习的过程中动态调整,使细标签的可优化上限始终高于粗标签。

4.3 Other trainable bag-of-freebies

在本节中,作者列出一些 trainable bag-of-freebies,这些 freebies 是在训练中使用的一些技巧,这个概念并不是在论文中最先提出的。这些 freebies 包括:

  • conv-bn-activation 拓扑中的批归一化:将批归一化直接连接到卷积层。这样做的目的是在推理阶段将批归一化的均值和方差整合到卷积层的偏置和权重中;
  • YOLOR 中的 implicit knowledge 结合卷积特征映射的加法和乘法方式:在推理阶段,通过预计算可以将 YOLOR 中的 implicit knowledge 简化为向量,该向量可以和前一层或后一层的偏置和权重相结合;
  • EMA 模型:EMA 是 mean teacher 中使用的一种技术,在本文提出的模型中,只使用 EMA 模型作为最终的推理模型。

5. 实验

5.1 实验设置

  • 数据集:Microsoft COCO;训练集:train 2017;验证集:val 2017;测试集;test 2017
  • 我们所有的实验都没有使用预先训练的模型。也就是说,所有的模型都是从零开始训练的
  • 设计了三种不同的基本模型;边缘GPU、普通GPU和云GPU的基本模型,分别叫做YOLOv7tiny、YOLOv7和YOLOv7- w6。同时,我们还利用基本模型对不同的业务需求进行模型伸缩,得到不同类型的模型。
  • 对于YOLOv7,我们在颈部进行堆栈缩放,并使用提出的复合缩放方法对整个模型的深度和宽度进行缩放,从而得到YOLOv7- x。对于YOLOv7-W6,我们使用新提出的复合标度法得到YOLOv7-E6和YOLOv7-D6。
  • 此外,我们将提出的EELAN用于YOLOv7-E6,从而完成YOLOv7E6E。由于YOLOv7-tiny是面向边缘gpu的架构,所以它将使用Leaky ReLU作为激活函数。对于其他模型,我们使用SiLU作为激活函数。并附录中详细描述每个模型的比例因子。

5.2 基线

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9VNiM1rP-1669982761749)(C:\Users\Zhaozhiyuan\AppData\Roaming\Typora\typora-user-images\image-20221128200023731.png)]
​ 我们选择以前版本的YOLO[3,79]和最先进的对象检测器YOLOR[81]作为基线。表1显示了我们提出的YOLOv7模型与使用相同设置训练的基线之间的比较。

​ 从结果中我们可以看到,与YOLOv4相比,YOLOv7的参数减少75%,计算量减少36%,AP提高1.5%。与最新的YOLOR-CSP相比,YOLOv7的参数减少43%,计算量减少15%,AP提高0.4%。在tiny模型的性能上,与YOLOv4-tiny-31相比,YOLOv7tiny的参数数量减少了39%,计算量减少了49%,但AP保持不变。在云GPU模型上,我们的模型仍然可以有更高的AP,同时减少19%的参数数量和33%的计算量

5.3. 与先进的水平进行对比

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-SttZXtpg-1669982787651)(C:\Users\Zhaozhiyuan\AppData\Roaming\Typora\typora-user-images\image-20221128200252139.png)]
​ 我们将所提出的方法与用于通用gpu和移动gpu的最先进的对象检测器进行比较,结果如表2所示。由表2的结果可知,所提方法综合而言具有最佳的速度-精度权衡。如果我们比较YOLOv7-tiny-SiLU和YOLOv5-N (r6.1),我们的方法在AP上的速度快127 fps,准确率高10.7%。此外,YOLOv7具有51.4%的AP,帧率为161帧/秒,而具有相同AP的PPYOLOE-L只有78帧/秒。在参数使用方面,YOLOv7比PPYOLOE-L少41%。如果我们将YOLOv7-X的114 fps推理速度与YOLOv5-L (r6.1)的99 fps推理速度进行比较,YOLOv7-X可以提高3.9%的AP。将YOLOv7X与相似尺度的YOLOv5-X (r6.1)进行比较,YOLOv7-X的推理速度快31 fps。此外,在参数量和计算量方面,YOLOv7-X比YOLOv5-X (r6.1)减少了22%的参数量和8%的计算量,但AP提高了2.2%。

​ 在输入分辨率为1280的情况下,YOLOv7- w6的推理速度比YOLOR- p6快8 fps,检出率也提高了1% AP。YOLOv7-E6与YOLOv5-X6 (r6.1)比较,前者AP增益较后者提高0.9%,参数减少45%,计算量减少63%,推理速度提高47%。YOLOv7-D6推理速度接近YOLOR-E6,但AP提高0.8%。YOLOv7-E6E的推理速度接近于YOLOR-D6,但AP提高了0.3%。

5.4 消融实验

5.4.1 提出的复合缩放方法

在这里插入图片描述

​ 表3显示了使用不同模型缩放策略进行缩放时得到的结果。其中,我们提出的复合缩放方法是将计算块深度放大1.5倍,将过渡块宽度放大1.25倍。如果将该方法与仅放大宽度的方法进行比较,我们的方法可以用更少的参数和计算量提高0.5%的AP。如果将我们的方法与只放大深度的方法进行比较,我们的方法只需要增加2.9%的参数数量和1.2%的计算量,就可以提高0.2%的AP。

​ 从表3的结果可以看出,我们提出的复合缩放策略可以更有效地利用参数和计算。

5.4.2 提出规划的重参数化模型

在这里插入图片描述

在这里插入图片描述

​ 为了验证所提出的平面再参数化模型的通用性,我们将其分别用于基于级联的模型和基于残差的模型进行验证。我们选择的基于级联的模型和基于残差的模型分别是3-stacked ELAN和CSPDarknet。

​ 在基于级联模型的实验中,我们用RepConv替换了3- stacking ELAN中不同位置的3 × 3卷积层,具体配置如图6所示。从表4所示的结果中,我们看到所有较高的AP值都出现在我们提出的计划重新参数化模型中。

在这里插入图片描述

在这里插入图片描述

​ 在处理基于残差的模型的实验中,由于原始dark block没有符合我们设计策略的3×3卷积块,我们为实验额外设计了一个反向dark block,其架构如图7所示。由于具有dark block和反向dark block的CSP Darknet具有相同数量的参数和操作,进行比较是公平的。表5中所示的实验结果充分证实了所提出的计划重新参数化模型对基于残差的模型同样有效。我们发现RepCSPResNet[85]的设计也符合我们的设计模式。

5.4.3 提出的辅助头的辅助损失


在这里插入图片描述

​ 在辅助头部的辅助损耗实验中,我们比较了一般的独立标签分配方法和辅助头部的标签分配方法,也比较了两种提出的引线引导标签分配方法。我们将所有的比较结果显示在表6中。从表6中列出的结果可以清楚地看出,任何增加助手损耗的模型都可以显著提高整体性能。此外,我们提出的引线引导标签分配策略在AP、AP50和AP75中获得了比一般独立标签分配策略更好的性能。对于我们提出的辅助标签粗、主导标签细的分配策略,在所有情况下都得到了最好的结果。图8给出了辅助头部和引线头部不同方法预测的目标度图。从图8中我们发现,如果辅助头学习导联软标签,它确实有助于导联头从一致目标中提取残差信息。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-mc8I3SQ7-1669982808266)(C:\Users\Zhaozhiyuan\AppData\Roaming\Typora\typora-user-images\image-20221128201230960.png)]

​ 在表7中,我们进一步分析了所提出的由粗到细导联标签分配方法对辅助头译码器的影响。即我们比较了引入上界约束和不引入上界约束的结果。从表中的数字来看,用距离物体中心的距离来约束物体的上限值的方法可以获得更好的性能。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Yju0o3PW-1669982808266)(C:\Users\Zhaozhiyuan\AppData\Roaming\Typora\typora-user-images\image-20221128201253207.png)]

​ 由于所提出的YOLOv7使用多个金字塔来联合预测目标检测结果,我们可以直接将辅助头部连接到中间层的金字塔进行训练。这种类型的训练可以弥补下一级金字塔预测中可能丢失的信息。基于以上原因,我们在提出的E-ELAN架构中设计了部分辅助头。我们的方法是在合并基数之前,在一组特征映射集之后连接辅助头,这种连接可以使新生成的特征映射集的权值不通过辅助丢失直接更新。我们的设计允许每个金字塔铅头仍然从不同大小的物体获取信息。表8给出了粗至细导联法和部分粗至细导联法两种不同方法得到的结果。显然,局部粗转细导导法具有较好的辅助效果。

5.5 其它对比图

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DZlGdg9B-1669982808267)(C:\Users\Zhaozhiyuan\AppData\Roaming\Typora\typora-user-images\image-20221128201821066.png)]

​ 在COCO数据集和批处理为32的V100 GPU上,我们的YOLOv7-tiny (35.2% AP, 0.4 ms)模型比美团/YOLOv6-n (35.0% AP, 0.5 ms)快25%,高0.2% AP。

6. 论文总结

本文提出了一种新的实时目标检测器体系结构和相应的模型缩放方法。此外,我们发现目标检测方法的发展过程产生了新的研究课题。在研究过程中,我们发现了重参数化模块的替换问题和动态标签分配问题。为了解决这一问题,我们提出了可训练的免费赠品袋方法来提高目标检测的准确性。在此基础上,我们开发了YOLOv7系列目标检测系统,获得了最先进的结果。

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
开始比赛顺序,然后向大家展示“风火轮”式赛车的冠军。显示总比赛时间,赛车速度和获胜差异(以毫秒为单位)。 硬件部件: Arduino Nano R3 × 1个 5毫米LED:绿色 × 2 5mm LED红外接收器× 4 5mm LED红外发射器× 4 字母数字LCD,16 x 2 × 1个 压电蜂鸣器 × 1个 电线,包装线 × 1个 电阻10k欧姆 × 4 电阻220欧姆 × 4 通孔电阻,390 ohm × 2 电阻100欧姆 × 1个 手动工具和制造机: 烙铁(通用) 助焊剂,焊接 多功能工具,螺丝刀 介绍视频: 我们的“风火轮比赛起点和终点线计时器”项目旨在在2辆车比赛中展示获胜的汽车,该车装在一个儿童友好,易于运输且尺寸小于13x10x12cm的独立箱中。只需将设备放在轨道上并连接USB电源即可。无需其他设置。比赛计时器以大奖赛风格的启动声音和闪烁的灯光序列开始。灯光熄灭后,比赛开始并计时。当第一辆汽车通过传感器时,获胜汽车的车道LED会立即打开,以提供对获胜者的即时视觉确认。一旦第辆赛车结束,车载LCD上就会显示获胜比赛的时间和获胜赛车之间的时差(以1/1000秒为单位)。短暂的延迟后 将显示每辆车通过大门的实际速度(Km / h),然后显示每辆车的缩放速度(基于“风火轮”缩放比例为1:64)。然后,计时器会根据比赛开始的声音和灯光序列为另一场比赛重置。如果第辆赛车在第一辆赛车通过传感器后的十秒内没有通过传感器,则认为发生了碰撞,并在重新开始比赛之前显示了获胜车道的时间和速度。理论上设备可以测量的最大速度为144Km / h ,时间精度为+/- 2ms (基于Arduino Nano硬件)。 数据可以通过USB串行接口传输到计算机,以显示更多详细信息,包括以毫秒为单位的实际时间。这可以用作大奖赛风格赛事的记录,也可以用于比较不同的汽车特性。 只需在代码开头更改一些CONST标志,即可将软件快速更改为调试模式。更改COMP_OUTPUT的值可以通过不将数据输出到计算机来提高同时检测设备的速度。设置DEBUG标志可通过USB串行链接输出详细的调试信息,例如传感器读数。在为您的单独软件设置单元方面,这些将被证明是无价的。此外,使用Complier #if语句意味着不需要的代码不会被编译并上传到Arduino。这减少了所需的程序空间,并提高了程序的执行速度,从而进一步提高了准确性。 该软件的进一步开发产生了双功能单元,该双功能单元还能够连续显示和记录通过传感器的赛车速度或如上所述的比赛开始/结束计时器模式。它使用与基本版本完全相同的硬件设计。您选择想要哪个版本的Race Timer或Speed Measurer,只需在上电后刷一下后部传感器之一即可运行硬件。 在构建此项目时,红外检测器LED的配线与普通LED的配线相反。红外探测器的LED必须通过10KOhm下拉电阻将长脚连接到GND,并且将检测线连接到电阻之前的长脚上。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ZZY_dl

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值