第一期通过教程里的baseline,我得到了第一个分数,但是对代码还有相关模型知识还有很多疑惑。在两次的datawhale直播中,我收获到了许多。尤其是关于YOLO:)
观看了baseline精读的直播后,还是对代码有些疑惑,主要是对python语言的不够熟练,以及一些库的使用生疏。
使用task2教的方法增加了更多的视频到训练集中,这次分数提高了不少。打算再试试切换不同的模型预训练权重。
本期的学习将进行建模方案解读与进阶。
一、YOLO 模型介绍
物体检测是计算机视觉领域的一个重要任务,它的目标是在图像或视频帧中识别和定位感兴趣的物体。物体检测算法不仅要识别图像中的对象属于哪个类别,还要确定它们在图像中的具体位置,通常以边界框(bounding box)的形式表示。以下是物体检测的一些关键概念和步骤:
-
输入:物体检测算法的输入通常是一张图像或视频帧。
-
特征提取:算法使用深度学习模型(如卷积神经网络CNN)来提取图像的特征。这些特征捕捉了图像中的视觉信息,为后续的物体识别和定位提供基础。
-
候选区域生成:在某些检测算法中,如基于区域的卷积神经网络(R-CNN)及其变体,首先需要生成图像中的候选区域,这些区域可能包含感兴趣的物体。
-
区域分类和边界框回归:对于每个候选区域,算法需要判断它是否包含特定类别的物体,并预测物体的边界框。这通常涉及到分类任务和回归任务的结合。
-
非极大值抑制(NMS):在检测过程中,可能会产生多个重叠的边界框,用于表示同一物体。NMS是一种常用的技术,用于选择最佳的边界框并去除多余的框。物体检测算法主要分为两类:One-Stage(一阶段)和Two-Stage(两阶段)模型。 One-Stage模型,如YOLO(You Only Look Once)和SSD(Single Shot Detection),直接在单次网络评估中预测图像中所有物体的类别和位置信息。这种方法的优点是速度快,适合实时应用,但可能在精度上不如Two-Stage模型 。 Two-Stage模型,如Faster R-CNN,首先使用区域提议网络(Region Proposal Network, RPN)生成候选区域,然后对这些区域进行分类和边界框的精细调整。这种方法的优点是精度高,但速度相对较慢 。 自2015年YOLOv1的首次推出以来,YOLO系列已经经历了多次迭代,每一次迭代都在速度、准确性和计算效率方面做出了显著的贡献。
二、YOLO 数据集格式
YOLO算法的标注格式主要使用
.txt
文件来存储图像中物体的标注信息。以下是YOLO标注格式的详细介绍:
在YOLO的训练过程中,这样的配置文件允许用户轻松地指定数据集的位置和类别信息,从而无需硬编码在训练脚本中。
path
: 指定了数据集的根目录路径,即所有数据子文件夹的上级目录。这里的路径是相对于当前配置文件的路径或者相对于执行训练脚本的工作目录。
train
: 定义了训练集图像的相对路径。在训练模型时,程序会在指定的路径下查找图像文件。
val
: 定义了验证集图像的相对路径。验证集用于在训练过程中评估模型性能,避免过拟合。
nc
: 表示类别的数量,这里设置为2,意味着数据集中有两类物体需要被识别。
names
: 是一个列表,包含了每个类别的名称。这里有两个类别,名称分别是"0"和"1"。这些名称在训练和测试过程中用于引用特定的类别。
三、YOLO 训练日志
在使用YOLO进行训练时,生成的exp/detect/train
类型的文件夹是训练过程中的一个关键组成部分。
-
类别索引:每个物体的类别由一个整数索引表示,索引对应于预先定义的类别列表。
-
边界框坐标:边界框由其中心点坐标
(x_center, y_center)
和宽度width
、高度height
组成。这些值通常是归一化到图像宽度和高度的比例值,范围在0到1之间。 -
坐标格式:边界框坐标通常按照
[class_index x_center y_center width height]
的格式记录,其中class_index
是类别索引,x_center
和y_center
是边界框中心点的x和y坐标,width
和height
是边界框的宽度和高度。
-
模型权重 (
.pt
或.pth
文件): 训练过程中保存的模型权重,可以用于后续的测试或继续训练。 -
日志文件 (
.log
文件): 包含训练过程中的所有输出信息,如损失值、精度、速度等。 -
配置文件 (
.yaml
或.cfg
文件): 训练时使用的配置文件副本,记录了数据路径、类别名、模型架构等设置。 -
图表和可视化: 有时YOLO会生成训练过程中的性能图表,如损失曲线、精度曲线等。
-
测试结果: 如果训练过程中包括了测试阶段,可能会有测试结果的保存,如检测结果的图片或统计数据。
-
F1_curve.png, PR_curve.png, P_curve.png, R_curve.png: 包含模型性能的不同评估指标曲线图,如F1分数(
F1_curve.png
)、精确率-召回率曲线(PR_curve.png
)、精确率(P_curve.png
)和召回率(R_curve.png
)。 -
results.csv: 一个CSV文件,包含模型训练或测试的结果数据。
-
results.png: 包含训练结果的汇总图表或图像。
-
train_batch*.jpg: 包含训练过程中不同批次的图像和它们的标注。
-
val_batch0_labels.jpg, val_batch0_pred.jpg: 验证集批次的图像,可能包含真实标签(
labels
)和模型预测(pred
)的可视化。 -
weights/: 一个目录,通常包含模型训练过程中保存的权重文件,如
.pt
或.pth
文件。
四、赛题再剖析
我们为什么要选择YOLO这个模型而不用其他的模型呢?
-
速度快:YOLO的设计目标是实现快速的对象检测,它在保持相对高准确度的同时,能够实现高帧率的实时检测。
-
易于实现:YOLO的架构相对简单,易于理解和实现,这使得它在学术和工业界都得到了广泛的应用。
-
版本迭代:YOLO自2016年首次发布以来,已经经历了多个版本的迭代(如YOLOv5、YOLOv6、YOLOv7等),每个版本都在性能和效率上有所提升。
-
社区支持:YOLO拥有一个活跃的开发者社区,提供了大量的教程、工具和预训练模型,这使得小白也可以快速上手并应用YOLO。
-
灵活性:YOLO的架构允许用户根据特定需求调整网络结构,例如改变输入图像的尺寸或调整网络的深度。
我们回归赛题,赛题最终目标是开发一套智能识别系统,能够自动检测和分类城市管理中的违规行为。该系统应利用先进的图像处理和计算机视觉技术,通过对摄像头捕获的视频进行分析,自动准确识别违规行为,并及时向管理部门发出告警,以实现更高效的城市管理。
赛题的本质是其实就是通过选择合适的目标检测模型进行训练,并使用训练后的模型对城市内违规行为进行检测。由于实际应用场景中需要模型对行为进行快速分析,因此我们抛弃了二阶段目标检测模型(Faster R-CNN、R-CNN等)选择了一阶段目标检测模型(YOLO、SSD等),同时我们不能一味的追求速度而忽略精度以及易于实践的实际需求,最终我们在众多一阶段目标检测模型中选择了YOLO模型。
五、Baseline 进阶
baseline中使用的是YOLOv8n训练两轮
如果想要在原有代码上提高模型思路
1、增加训练的数据集,可以增加更多的视频到训练集中进行训练。
2、切换不同的模型预训练权重。