AI Education For All, From Your First Steps to Mastery!
Custom Object Detection Training using YOLOv5 | LearnOpenCV
使用 YOLOv5 进行自定义目标检测训练
Table of Contents
- Introduction
- What is YOLOv5?
- Custom Object Detection Training using YOLOv5
- The Custom Training Code
- Performance Comparison
- Conclusion
使用 YOLOv5 进行自定义目标检测训练
深度学习领域在 2012 年开始起飞。大约在那个时候,它是一个有点排他性的领域。 我们看到编写深度学习程序和软件的人要么是深度学习从业者,要么是在该领域拥有丰富经验的研究人员,要么是具有非常好的编码技能的人。
今天,仅仅过了10年左右,情况就发生了翻天覆地的变化,而且变得更好了。 从字面上看,一个只学习了几周深度学习的学生可以在 20 行代码内训练一个神经网络模型。 不仅仅是针对基准数据集的现成培训。 我们正在讨论使用一些最好的模型对自定义数据集进行训练。 不相信吗? 好吧,这正是我们将在这篇文章中使用 YOLOV5 进行自定义对象检测训练的内容。
我们将在这篇博文中介绍以下几点:
我们将在自定义数据集上训练 YOLOv5s(small)和 YOLOv5m(medium)模型。
我们还将检查冻结模型的某些层如何导致每个 epoch 的迭代时间更快,以及它会对最终结果产生什么影响。
除此之外,我们将比较模型的性能,包括 mAP、FPS 以及 CPU 和 GPU 上的推理时间。
YOLOv5 是什么?
YOLOv5 是一种流行的实时目标检测器。 它是 YOLO(You Only Look Once)单次检测器的 PyTorch 实现,它以其极快的速度和合理的准确性而闻名。
官方称,作为 Darknet 框架的一部分,YOLO 有四个版本。 从 YOLOv1 到 YOLOv4。 Darknet 框架是用 C 和 CUDA 编写的。
YOLOv5 是 YOLO 系列中的下一个等效版本,但有一些例外。
该项目由 Glenn Jocher 在 GitHub 上的 Ultralytics 组织下启动Ultralytics organization on GitHub.。
它是使用 Python 语言编写的,使用的框架是 PyTorch。
它本身就是对象检测模型的集合。 从能够在边缘设备上提供实时 FPS 的非常小的模型开始,到用于云 GPU 部署的非常大且准确的模型。 它几乎拥有人们可能需要的一切。
它具有许多其他特性和功能,使其成为当今任何人甚至想到对象检测时首选的对象检测模型/存储库的选择。 我们将很快检查出来。
YOLOv5 中可用的模型
要开始探索 YOLOv5 的整个景观,让我们从模型开始。 它总共包含5个模型。 从 YOLOv5 nano(smallest and fastest)到 YOLOv5 extra-large(the largest model)。
以下是对其中每一项的简短描述:
YOLOv5n:它是新推出的 nano 模型,是家族中最小的模型,适用于边缘、物联网设备,并且还支持 OpenCV DNN。 INT8 格式小于 2.5 MB,FP32 格式约为 4 MB。 它是移动解决方案的理想选择。
YOLOv5s:它是家族中的小型模型,大约有 720 万个参数,非常适合在 CPU 上运行推理。
YOLOv5m:这是中型模型,有 2120 万个参数。 它可能是最适合大量数据集和训练的模型,因为它在速度和准确性之间提供了良好的平衡。
YOLOv5l:是YOLOv5家族的大型模型,4650万个参数。 它非常适合我们需要检测较小对象的数据集。
YOLOv5x:是五款中最大的,也是五款中mAP最高的。 虽然它比其他的慢并且有 8670 万个参数。
下图更好地概述了所有模型,包括 CPU、GPU 上的推理速度,以及图像大小为 640 的参数数量。
所有模型检查点都可以从存储库下载。 他们都已经在 MS COCO 数据集上进行了 300 个 epoch 的预训练。
YOLOv5 存储库和代码库提供的功能
如果您浏览存储库,很明显它使自定义数据集的训练和推理变得非常容易。 可以肯定地说,如果您已经准备好格式正确的数据集,您可以在 2 分钟内开始训练。
但训练和推理并不是全部。 它包含许多其他功能,使其非常特别。 让我们回顾一下
多种型号可供选择
我们已经在上面讨论过,我们可以根据用例和数据集从 5 种不同的模型中进行选择。 无论是为边缘训练实时检测器,还是在云 GPU 上部署最先进的对象检测模型,它都具备人们可能需要的一切。
多种导出选项
仅对模型进行训练和推理还不足以完成目标检测管道。 在现实生活中的用例中,部署也是一项主要要求。 在部署之前,我们主要需要将训练好的模型转换(导出)为正确的格式。
我们可以将原生 PyTorch (.pt) 模型转换为如下格式:
TorchScript
ONNX
OpenVINO
TensorRT
CoreML
TensorFlow SavedModel、GraphDef、Lite、Edge TPU 和 TensorFlow.js
这为任何深度学习工程师打开了无数的部署选项。
日志记录
YOLOv5 存储库默认提供 TensorBoard 和 Weights&Biases 日志记录。 尽管您可能需要创建一个 Weights&Biases 帐户并提供 API 凭据,然后才能开始训练以进行正确的日志记录。
即使您跳过它,TensorBoard 日志也已经存在,其中包含每个指标、损失和图像以及所有验证预测。 这使我们更容易在训练模型后随时查看性能指标。
锚框选择的遗传算法
虽然许多对象检测模型根据 MS COCO 数据集使用预定义的锚框,但 YOLOv5 采用了不同的方法。 事实上,之前的 YOLO 版本,比如 YOLOv2,只使用了 k-Means 聚类。
但是 YOLOv5 使用遗传算法来生成锚框。 他们将此过程称为自动锚定,如果默认锚框不好,它会重新计算锚框以适应数据。 这与 k-Means 算法结合使用以创建 k-Means 进化锚框。 这就是为什么 YOLOv5 即使在不同的数据集上也能如此出色地工作的原因之一。
Mosaic Augmentation马赛克增强
YOLOv5 模型训练和检测结果如此出色的另一个原因是马赛克增强。
说明:马赛克增强的示例(图像源image source)。
简单来说,就是将 4 张不同的图像合二为一,这样模型就可以学会处理各种复杂的图像。 它还使用其他增强技术以及马赛克增强。
YOLOv5 与 YOLOv3 对比
现在我们已经了解了 YOLOv5 中可用的不同模型以及代码库提供的不同功能,让我们将 YOLOv5 与之前的 YOLOv3 模型进行比较。 这些比较主要集中在具有 608×608 图像尺寸的模型的 mAP 上,包括 Darknet 和 Ultralytics 模型。
很明显,Ultralytics YOLOv3-SPP 模型在 mAP 方面能够击败 Darknet YOLOv3 SPP 模型。 而 Ultralytics YOLOv5 模型的性能甚至更好。 约 2100 万参数模型的 YOLOv5m 能够击败 6300 万参数模型的 YOLOv3-SPP 模型。 这显示了多年来 Ultralytics 模型的改进程度。
注意:在上图中,你可能会发现 Darknet YOLOv3 的一些结果与原始论文相比略好一些。 原因是,随着 Darknet YOLOv3 模型的更新,mAP 编号也由 Ultralytics 在其存储库中更新。 这也使我们能够在所有最后更新的模型之间进行公平的比较。
使用 YOLOv5 进行自定义目标检测训练
在这篇博文中,对于使用 YOLOv5 进行自定义对象检测训练,我们将使用来自 Kaggle 的这个数据集this dataset。
该数据集包含在不同环境和照明条件下的交通车辆图像。 大多数交通图像来自印度道路。 它总共包含7个类。 它们是汽车、车牌、模糊车牌、两轮车、汽车、公共汽车和卡车。
Car, Number Plate, Blur Number Plate, Two Wheeler, Auto, Bus, and Truck.
该数据集还包含车辆和车牌的图像。 这样一个具有这些类的数据集可以构成一个很好的实时交通监控应用程序。 虽然我们不会在这篇文章中这样做,但我们将完成此过程所需的第一步。 也就是说,构建一个好的对象检测器。 使用 YOLOv5,这将非常容易,因为数据集已经是所需的格式。
该数据集包含 738 张用于训练的图像、185 张用于验证的图像和 278 张用于测试的图像。 但由于只有训练集和验证集包含真实标签,我们将在本文中只使用这两个。 在继续之前,这里有一些图像,上面绘制了基本实况框。
定制培训方法
让我们看看我们将在使用 YOLOv5 进行自定义训练期间涵盖的内容。
我们将从训练小型 YOLOv5 模型开始。
然后我们将训练一个medium 模型并检查与small 模型相比的改进。
接下来,我们将冻结freeze 几层中等medium 模型并再次训练模型。
我们将在上述所有情况下进行推理,并将 mAP 指标与视频推理期间的 FPS 进行比较。
自定义训练代码
让我们开始编码部分。 所有代码都是 Jupyter notebook 的一部分,您可以从下载部分访问。
在这里,我们将介绍所有必要和重要的编码部分。 这些包括:
- 数据集准备。
- 如上所述的三个模型的训练。
- 性能比较。
- 对图像和视频的推断。
让我们回顾一下代码的所有重要部分,从导入我们在笔记本中使用的模块和库开始。
import os
import glob as glob
import matplotlib.pyplot as plt
import cv2
import requests
我们将需要 glob 用于捕获目录中的文件路径,matplotlib 用于可视化,以及 cv2 用于读取图像。
接下来,我们定义一些常量和hyperparameters超参数。
TRAIN = True
# Number of epochs to train for.
EPOCHS = 25
上面,我们有一个名为 TRAIN 的布尔值。 如果这是真的,那么运行代码将训练笔记本中的所有三个模型。 如果我们将值提供为 False,那么如果结果目录中存在任何先前训练的模型,它将用于推理。 如果我们想要进行推理,这是一个很好的措施,可以确保我们不需要每次都训练所有模型。
准备数据集
下一步是下载和准备数据集。 我们需要一个简单的辅助函数来下载数据集并进行提取。
def download_file(url, save_name):
url = url
if not os.path.exists(save_name):
file = requests.get(url)
open(save_name, 'wb').write(file.content)
else:
print('File already present, skipping download...')
download_file('https://learnopencv.s3.us-west-2.amazonaws.com/traffic-vehicles-object-detection.zip', 'traffic-vehicles-object-detection.zip')
if not os.path.exists('Traffic Dataset'):
!unzip -q "traffic-vehicles-object-detection.zip"
else:
print('Dataset already present')
download_file 函数将数据集下载到当前目录(如果它不存在)并提取它。 在使用数据集进行训练之前了解数据集的目录结构也很重要。
Traffic Dataset
├── images
│ ├── test [278 entries exceeds filelimit, not opening dir]
│ ├── train [738 entries exceeds filelimit, not opening dir]
│ └── val [185 entries exceeds filelimit, not opening dir]
└── labels
├── train [738 entries exceeds filelimit, not opening dir]
├── val [185 entries exceeds filelimit, not opening dir]
我们在各自的文件夹中有图像和标签。 由于地面实况标签仅存在于 train 和 val 文件夹中,我们将在训练 YOLOv5 模型时使用它们。
另一种快速准备数据集的简单方法(包括标记和直接导出为 YOLOv5 格式)是 Roboflow,它是 YOLOv5 的官方数据集管理工具。
创建 YAML 文件
YOLOv5 训练最重要的属性之一可能是数据集 YAML 文件。 该文件包含训练和验证数据的路径以及类名。 在执行训练脚本时,我们需要提供这个文件路径作为参数,以便脚本可以识别图像路径、标签路径以及类名。 以下是我们这里用来训练的data.yaml文件的内容。
path: "../Traffic Dataset" # Path relative to the `train.py` script.
train: images/train
val: images/val
# Classes
nc: 7
names: [
"Car", "Number Plate", "Blur Number Plate", "Two Wheeler", "Auto", "Bus", "Truck"
]
注意:以上文件中的所有路径都应该是相对于训练脚本的。 由于我们将在克隆后执行 yolov5 目录中的脚本,因此,我们在这里将路径的值指定为“../Traffic Dataset”。
克隆 YOLOv5 存储库
为了使用 YOLOv5 代码库的任何功能,我们需要克隆它们的存储库。 接下来的几行代码克隆存储库,进入 yolov5 目录并安装运行代码可能需要的所有要求。
if not os.path.exists('yolov5'):
!git clone https://github.com/ultralytics/yolov5.git
%cd yolov5/
!pip install -r requirements.txt
如果一切顺利,您应该会看到所有要求都已成功安装
使用 YOLOv5 模型进行训练
如果您还记得,我们讨论了如果我们准备好数据集,我们如何可以立即开始训练。 其实我们现在就是这样的状态。 如果我们只是使用 data.yaml 文件的路径执行 train.py 脚本,训练将立即开始。 该脚本将选择所有可用于训练的默认参数。
但我们将采取稍微不同的方法。 我们将根据我们的要求控制训练参数。 我们将运行训练脚本三个不同的时间,所有参数都略有不同。
注意:所有训练和推理实验均在配备第 8 代 i7 CPU、6 GB GTX 1060 GPU 和 16 GB RAM 的机器上进行。
训练小模型(yolov5s)
我们将从训练小模型的所有层开始。 这意味着,尽管将加载预训练的权重,但整个模型将在新数据集上进行微调。
坦率地说,即使控制了所有参数,它也只是一个简单的命令,如下所示。
RES_DIR = set_res_dir()!python train.py --data ../data.yaml --weights yolov5s.pt \
--img 640 --epochs {EPOCHS} --batch-size 16 --name {RES_DIR}
好的! 让我们来看看上面代码块中发生的一切。
首先,我们正在创建一个新目录来保存结果。 该路径保存在 RES_DIR 变量中。 您将在笔记本中找到 set_res_dir 的整个函数定义。 这很重要,因为我们想要控制结果的保存位置。 否则,脚本将在执行 train.py 脚本时创建自己的目录,如 run_1、run_2 等。
现在,让我们回顾一下训练脚本的所有参数。
--data:这接受我们之前创建的数据集 YAML 文件的路径。在我们的例子中,它是返回当前目录的一个目录,这就是为什么它是 ../data.yaml。
--weights:此参数接受我们要用于训练的模型。由于我们使用的是 YOLOv5 系列的小型模型,因此值为 yolov5s.pt。
--img:我们还可以在训练时控制图像大小。图像将在被馈送到网络之前调整为该值。我们将它们的大小调整为 640 像素,这也是最常用的像素之一。
--epochs:此参数用于指定 epoch 的数量。因为我们已经在上面的 EPOCHS 变量中指定了 epoch 的数量,所以我们在这里提供。
--batch-size:这是训练时将加载到一个批次中的样本数。虽然这里的值为 16,但您可以根据可用的 GPU 内存进行更改。
--name:我们可以提供一个自定义目录名称,所有结果都将保存在其中。在我们的例子中,我们提供了一个刚刚通过调用 set_res_dir 函数创建的路径。
执行上述代码后,训练将开始,这将需要一些时间,具体取决于硬件。 强烈建议您在 GPU 上运行所有训练。
如果训练成功完成,您将看到类似于以下内容的输出。
Epoch gpu_mem box obj cls labels img_size
0/24 3.26G 0.1054 0.09665 0.05377 54 640: 100%|███
Class Images Labels P R mAP@.5 mAP@
all 185 1980 0.907 0.0817 0.0605 0.013
...
Epoch gpu_mem box obj cls labels img_size
24/24 4.34G 0.02875 0.05944 0.006674 14 640: 100%|███
Class Images Labels P R mAP@.5 mAP@
all 185 1980 0.82 0.723 0.794 0.5
25 epochs completed in 0.202 hours.
Optimizer stripped from runs/train/results_1/weights/last.pt, 14.4MB
Optimizer stripped from runs/train/results_1/weights/best.pt, 14.4MB
Validating runs/train/results_1/weights/best.pt...
Fusing layers...
Model summary: 213 layers, 7029004 parameters, 0 gradients
Class Images Labels P R mAP@.5 mAP@
all 185 1980 0.776 0.755 0.795 0.503
Car 185 1061 0.844 0.921 0.945 0.735
Number Plate 185 174 0.8 0.799 0.786 0.409
Blur Number Plate 185 161 0.7 0.54 0.608 0.289
Two Wheeler 185 271 0.83 0.903 0.922 0.602
Auto 185 94 0.775 0.658 0.713 0.331
Bus 185 110 0.814 0.797 0.876 0.626
Truck 185 109 0.67 0.67 0.712 0.53
Results saved to runs/train/results_1
YOLOv5s 模型能够在 0.5 IoU 时实现 79.5% 的 mAP,在 0.5:0.95 IoU 时达到 50.3%。
下图显示了包含当前结果目录中所有losses损失和mAP的results.png文件。
将 YOLOv5s 模型训练 25 个 epoch 后的损失和 mAP 结果。
综合考虑,对于一个有大约 700 万个参数的模型,这些结果一点也不差。 事实上,整个训练在中档 GPU 上花费了大约 12 分钟。 此外,最后,您可以看到它显示了保存所有结果的自定义目录。
YOLOv5s 的验证预测和推理
在训练期间,代码库将每个时期each epoch的validation batches验证批次的预测保存到结果目录中。 在我们检查它们之前,让我们编写一个辅助函数,它将在结果目录中找到所有验证预测并显示它们。
# Function to show validation predictions saved during training.def show_valid_results(RES_DIR):
!ls runs/train/{RES_DIR}
EXP_PATH = f"runs/train/{RES_DIR}"
validation_pred_images = glob.glob(f"{EXP_PATH}/*_pred.jpg")
print(validation_pred_images)
for pred_image in validation_pred_images:
image = cv2.imread(pred_image)
plt.figure(figsize=(19, 16))
plt.imshow(image[:, :, ::-1])
plt.axis('off')
plt.show()
上面的函数接受结果目录路径。 我们可以将图像可视化如下。
show_valid_results(RES_DIR)
以下是其中一些结果。
由于所有注释,这看起来有点混乱。 但同时也表明,即使是小的 YOLOv5 模型也能取得非常好的效果。
继续推理部分。 在这里,我们还需要一些辅助函数。 这些是直接使用推理脚本的函数。 因此,了解它们非常重要。 此外,我们将在训练中型模型时进一步重用这些功能。
# 用于推断图像的辅助函数。Helper function for inference on images.
def inference(RES_DIR, data_path):
# Directory to store inference results.
infer_dir_count = len(glob.glob('runs/detect/*'))
print(f"Current number of inference detection directories: {infer_dir_count}")
INFER_DIR = f"inference_{infer_dir_count+1}"
print(INFER_DIR)
# Inference on images.
!python detect.py --weights runs/train/{RES_DIR}/weights/best.pt \
--source {data_path} --name {INFER_DIR}
return INFER_DIR
当提供模型保存的结果目录路径和图像/视频所在的数据路径时,推理功能可用于对图像和视频进行推理。 每次这个函数都会创建一个新的推理目录来保存结果。
但这里最重要的部分是运行推理的 detect.py 脚本。 回顾这些arguments 将使我们更深入地了解它的工作原理。
--weights:此参数用于提供训练权重的路径以用于推理。 如果你每次都观察得当,我们使用的是最好的模型,那就是 best.pt。
--source:我们需要提供图片或视频所在的路径。
--name:最后,我们每次使用自定义目录来保存推理结果,以便轻松跟踪结果。
这里要注意的一件事是,我们使用相同的 detect.py 脚本来推断图像和视频。 通过检查文件扩展名并调用适当的方法,相同的检测脚本可以对图像和视频进行推理。
在运行 detect.py 之后,只有一个最终的辅助函数用于可视化存储在磁盘上的推理图像。 这将帮助我们直接在 Jupyter Notebook 中可视化结果。
def visualize(INFER_DIR):
# Visualize inference images.
INFER_PATH = f"runs/detect/{INFER_DIR}"
infer_images = glob.glob(f"{INFER_PATH}/*.jpg")
print(infer_images)
for pred_image in infer_images:
image = cv2.imread(pred_image)
plt.figure(figsize=(19, 16))
plt.imshow(image[:, :, ::-1])
plt.axis('off')
plt.show()
现在,我们可以完全专注于推理并检查结果。 让我们从使用经过训练的 YOLOv5s 模型进行图像推理并将它们可视化开始。
# Inference on images.
IMAGE_INFER_DIR = inference(RES_DIR, 'inference_images')
visualize(IMAGE_INFER_DIR)
下图显示了图像推断结果。
小型模型的局限性和优势从这里非常明显。 它能够检测更大的物体,如汽车和卡车。 但它错误地将一个人预测为两轮车。 尽管在最后一张图片(右下)中,令人印象深刻的是,它能够检测到汽车上的车牌。
接下来,我们将通过执行 video_inference 函数对视频进行推理。
inference(RES_DIR, 'inference_videos')
让我们在这里查看其中一个推理结果。
Youtube视频
结果看起来不错。 但我们还没有真正的比较。 虽然我们可以看到卡车的预测在路的另一边波动很大。
在 GTX 1060 GPU 上,每帧的平均时间约为 8 毫秒,相当于 125 FPS。 考虑到我们在这里得到的预测,FPS 相当不错。
训练 YOLOv5 中型模型
现在是训练中型模型的时候了。 训练这也将为我们提供一个机会,将模型的结果与之前的结果进行比较。
我们将使用相同的训练脚本,同时仅提供新的模型名称。
RES_DIR = set_res_dir()
if TRAIN:
!python train.py --data ../data.yaml --weights yolov5m.pt \
--img 640 --epochs {EPOCHS} --batch-size 16 --name {RES_DIR}
中型模型需要大约 30 分钟来训练 25 个 epoch。 以下是最终的mAP结果。
Model summary: 290 layers, 20877180 parameters, 0 gradients
Class Images Labels P R mAP@.5 mAP@
all 185 1980 0.841 0.756 0.822 0.554
Car 185 1061 0.889 0.926 0.952 0.781
Number Plate 185 174 0.84 0.799 0.845 0.471
Blur Number Plate 185 161 0.791 0.528 0.69 0.328
Two Wheeler 185 271 0.839 0.867 0.902 0.646
Auto 185 94 0.802 0.66 0.688 0.37
Bus 185 110 0.802 0.845 0.887 0.646
Truck 185 109 0.924 0.668 0.789 0.636
Results saved to runs/train/results_2
中等模型的结果要好得多。 0.5 IoU 时的 mAP 为 82.2%,明显高于小模型。
此外,在这种情况下,损失的减少看起来更加稳定。
现在,让我们仔细看看这里的图像推理结果。
从上图可以看出推理结果的提升是相当明显的。 事实上,它能够检测到小模型遗漏的汽车上的车牌。
以下是与上述相同视频的视频推理结果,用于比较。 检测在这里看起来很相似。 但这次远方车辆的波动较小。 此外,它现在似乎更有信心检测到遥远的车牌。
Youtube视频
即使是中型模型,在 GTX 1060 GPU 上似乎也能以令人印象深刻的 62 FPS 运行,并获得了更多改进的结果。 这不仅仅是具有非常好的预测的实时速度。
通过冻结层训练中型 YOLOv5 模型
在目标检测中,我们通常使用在 MS COCO 数据集上预训练的模型,并在我们自己的数据集上对其进行微调。 大多数时候,我们训练模型的所有层,因为对象检测是一个特别难以解决的问题,数据集变化很大。
但我们不需要总是训练整个模型。 预训练模型非常强大,我们可以通过冻结一些层并训练其他层来获得几乎相同的结果。 唯一的问题是这样做不是很简单。 很多时候,我们需要修改源代码来冻结图层。
但是 Ultralytics YOLOv5 使得冻结模型的几层并训练其他层变得非常容易。 我们只需要在执行 train.py 脚本时使用 --freeze 参数。
现在让我们训练模型并检查上述任何理论是否正确。
RES_DIR = set_res_dir()
if TRAIN:
!python train.py --data ../data.yaml --weights yolov5m.pt \
--img 640 --epochs {EPOCHS} --batch-size 16 --name {RES_DIR} \
--freeze 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
YOLOv5 中型模型共有 25 个区块(从 0 到 24)。 每个块都是不同层的堆叠。 当我们冻结前 15 个块时,卷积和批量归一化权重被冻结。 如果您在训练开始之前查看输出,您将看到类似于以下的输出。
freezing model.0.conv.weight
freezing model.0.bn.weight
freezing model.0.bn.bias
.
.
.
freezing model.14.conv.weight
freezing model.14.bn.weight
freezing model.14.bn.bias
这里,model.# 表示块编号,然后是层类型。 正如我们所看到的,从块 0 到 14 的所有卷积和批量归一化权重都被冻结了。 只剩下 10 个可训练的块。
以下块显示了训练 25 个 epoch 后的结果。
Model summary: 290 layers, 20877180 parameters, 0 gradients
Class Images Labels P R mAP@.5 mAP@
all 185 1980 0.803 0.693 0.771 0.488
Car 185 1061 0.874 0.92 0.948 0.748
Number Plate 185 174 0.797 0.812 0.84 0.433
Blur Number Plate 185 161 0.828 0.42 0.606 0.243
Two Wheeler 185 271 0.83 0.882 0.93 0.62
Auto 185 94 0.721 0.521 0.557 0.281
Bus 185 110 0.813 0.712 0.812 0.563
Truck 185 109 0.756 0.587 0.706 0.525
Results saved to runs/train/results_3
有趣的是,mAP 值低于 YOLOv5 完全训练的中等模型和 YOLOv5s 模型。 但这里要注意一件事,结果还不错。
此外,查看这些图像推断结果。
很明显,这些结果优于小型模型,但不如完全训练的中型模型。
运行视频推理将提供相同的 FPS,因为在推理过程中层数不会受到影响。 这个实验告诉我们,如果有必要,我们可以通过冻结一些层和缩短训练时间来获得同样好的结果。
通过冻结层进行训练的好处
从上面的实验中,我们可以立即提到冻结几层和训练模型的一些好处。
首先,由于我们冻结了几层,这些层没有得到训练,并且反向传播不会通过这些层发生。 这意味着训练迭代时间减少。 从上述训练中也可以看出,与完整的中型模型训练的 30 分钟相比,只需要 15 分钟即可完成。
其次,即使我们冻结了几个块,中等模型仍然能够产生与完全训练的模型一样好的预测。 我们可以从上面的推理结果中看到,预测明显优于小模型。
性能比较
本节包含所有型号的性能比较图,包括:
训练时间。
平均平均精度。
GPU 上的推理速度。
CPU 上的推理速度。
- Training time.
- Mean Average Precision.
- Inference speed on GPU.
- Inference speed on CPU.
Training Time Comparison
mAP Comparison
Inference Speed 推理速度
这是所有三种模型的视频平均推理速度。
使用的硬件:英特尔 i7 第 8 代笔记本电脑 CPU、6 GB GTX 1060 笔记本电脑 GPU。
Model Type | GPU Inference Speed in ms (FPS) | CPU Inference Speed in ms (FPS) |
YOLOv5s | 8.0 ms (125 FPS) | 54 ms (18 FPS) |
YOLOv5m Full Training | 16 ms (62 FPS) | 127 ms (8 FPS) |
YOLOv5m Frozen Layers | 16 ms (62 FPS) | 127 ms (8 FPS) |
结论
在这篇文章中,我们使用 YOLOv5 进行了大量的训练和推理实验。 我们从使用 YOLOv5 小型模型的自定义对象检测训练和推理开始。 然后我们转向了 YOLOv5 中型模型训练以及带有几个冻结层的中型模型训练。 这篇文章让我们深入了解了 YOLOv5 代码库的工作原理以及模型之间的性能和速度差异。
鉴于这篇文章中进行的大量实验,您是否意识到一件事? 除了一些通用的 Python 函数,我们没有编写任何深度学习代码。 这表明深度学习领域正在变得多么容易,并且希望它在未来也将朝着相同的方向发展。 如果您尝试对自己的数据集进行自定义训练并发现一些有趣的东西,请不要忘记在评论部分分享您的结果。
Custom Object Detection Training using YOLOv5 | LearnOpenCV
如果您喜欢这篇文章并想下载本文中使用的代码(C++ 和 Python)和示例图像,请单击此处。 或者,注册以接收免费的计算机视觉资源指南。 在我们的时事通讯中,我们分享了用 C++/Python 编写的 OpenCV 教程和示例,以及计算机视觉和机器学习算法和新闻。
https://github.com/ultralytics
https://github.com/ultralytics/yolov5
YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite