雾天行人车辆数据集 目标检测 yolov5可直接训练包含五种标签:person、bicycle、car、bus、motorbikelabelimg标注、包含txt和xml两种格式共计4332张 5类

雾天行人车辆数据集 目标检测 yolov5可直接训练


包含五种标签:person、bicycle、car、bus、motorbike
labelimg标注、包含txt和xml两种格式共计4332张

雾天行人车辆数据集

名称

雾天行人车辆数据集 (Foggy Pedestrian and Vehicle Detection Dataset)

规模
  • 图像数量:共4332张图像。
  • 类别:包括五种常见的目标类型。
数据特点
  • 多样化的目标类型:数据集涵盖了五种常见的目标类型,包括行人(person)、自行车(bicycle)、汽车(car)、公交车(bus)和摩托车(motorbike)。
  • 雾天环境:所有图像都是在雾天条件下拍摄的,增加了目标检测的难度,有助于提高模型在恶劣天气条件下的鲁棒性。
  • 详细的标注信息:每张图片都带有精确的边界框标注,支持YOLO适用的txt格式以及VOC适用的xml格式。
  • 高分辨率图像:图像质量较高,有助于识别细小的目标特征。
应用领域
  • 自动驾驶:帮助自动驾驶系统在雾天条件下更准确地检测行人和车辆,提高安全性。
  • 智能交通系统:用于交通监控、拥堵管理和事故预警等应用。
  • 安全监控:增强安防系统在低能见度条件下的目标检测能力。
  • 科研应用:为计算机视觉、深度学习和智能交通研究提供宝贵的数据资源。
分类说明
  • person (行人):图像中出现的人。
  • bicycle (自行车):图像中的自行车。
  • car (汽车):图像中的轿车。
  • bus (公交车):图像中的公交车。
  • motorbike (摩托车):图像中的摩托车。
总数
  • 图片总数:4332张
  • 类别数 (nc):5类
1. 安装依赖库

首先,确保安装了必要的依赖库。可以在项目目录中的requirements.txt文件中列出这些依赖库,然后运行以下命令进行安装:

pip install -r requirements.txt

requirements.txt 文件内容示例:

torch==1.10.0
torchvision==0.11.1
pandas==1.3.4
cv2
albumentations==1.1.0
pycocotools
2. 创建数据集

定义一个自定义的数据集类,并创建数据加载器。

import os
import pandas as pd
import cv2
from torch.utils.data import Dataset, DataLoader
from torchvision.transforms import Compose, ToTensor, Normalize, Resize
from albumentations import HorizontalFlip, RandomBrightnessContrast, ShiftScaleRotate
from albumentations.pytorch import ToTensorV2

# 自定义数据集类
class FoggyDataset(Dataset):
    def __init__(self, data_root, annotations_file, transforms=None):
        self.data_root = data_root
        self.annotations = pd.read_csv(annotations_file)
        self.transforms = transforms

    def __len__(self):
        return len(self.annotations)

    def __getitem__(self, idx):
        img_path = os.path.join(self.data_root, self.annotations.iloc[idx, 0])
        image = cv2.imread(img_path)
        bboxes = self.annotations.iloc[idx, 1:].values.reshape(-1, 4)  # bounding box coordinates
        labels = self.annotations.columns[1:]

        if self.transforms:
            augmented = self.transforms(image=image, bboxes=bboxes, class_labels=labels)
            image = augmented['image']
            bboxes = augmented['bboxes']

        return image, bboxes, labels

# 图像预处理
def get_transforms():
    """构建预处理函数"""
    _transform = [
        Resize(height=640, width=640, interpolation=cv2.INTER_LINEAR),
        HorizontalFlip(p=0.5),
        RandomBrightnessContrast(p=0.2),
        ShiftScaleRotate(p=0.5, shift_limit=0.0625, scale_limit=0.2, rotate_limit=15),
        Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
        ToTensorV2()
    ]
    return Compose(_transform)

# 创建数据加载器
train_dataset = FoggyDataset(
    data_root='path_to_your_train_images',
    annotations_file='path_to_your_train_annotations.csv',
    transforms=get_transforms()
)
val_dataset = FoggyDataset(
    data_root='path_to_your_val_images',
    annotations_file='path_to_your_val_annotations.csv',
    transforms=get_transforms()
)
test_dataset = FoggyDataset(
    data_root='path_to_your_test_images',
    annotations_file='path_to_your_test_annotations.csv',
    transforms=get_transforms()
)

train_loader = DataLoader(train_dataset, batch_size=16, shuffle=True, num_workers=4)
val_loader = DataLoader(val_dataset, batch_size=16, shuffle=False, num_workers=4)
test_loader = DataLoader(test_dataset, batch_size=16, shuffle=False, num_workers=4)
3. 训练模型

可以使用YOLOv5进行训练。

!git clone https://github.com/ultralytics/yolov5  # 下载YOLOv5代码仓库
cd yolov5

# 使用YOLOv5训练模型
python train.py --weights yolov5s.pt --data path_to_your_data.yaml --name foggy_pedestrian_vehicle_detection --img 640 --batch 16 --epochs 100 --device 0
  • 数据配置文件:创建一个名为data.yaml的数据配置文件,其中包含训练、验证和测试数据集的信息。
train: path_to_your_train_images
val: path_to_your_val_images
test: path_to_your_test_images
nc: 5
names: ['person', 'bicycle', 'car', 'bus', 'motorbike']
4. 调整模型
  • 超参数调整:根据实际情况调整学习率、批大小等超参数。
  • 数据增强:增加旋转、缩放、翻转等数据增强策略以提高模型鲁棒性。
5. 预测与评估

完成训练后,可以使用训练好的模型对新的图片进行预测和评估。

# YOLOv5 模型预测
from models.experimental import attempt_load
from utils.datasets import ImageList
from utils.torch_utils import select_device, time_synchronized
from utils.plots import plot_results

# 加载模型
device = select_device('0')
model = attempt_load('runs/train/exp/weights/best.pt', map_location=device)  # 加载最佳权重

# 新建数据集
test_dataset = ImageList('path_to_test_images', transform=get_transforms())
test_loader = DataLoader(test_dataset, batch_size=1, shuffle=False, num_workers=4)

# 进行预测
results = []
with torch.no_grad():
    t0 = time_synchronized()
    for i, (x, path) in enumerate(test_loader):
        x = x.to(device)  # 将输入图像转换到设备上
        pred = model(x)[0]  # 获取预测结果
        results += plot_results(pred, path, save=True, show=False)  # 绘制预测结果图

print(f'Time {time_synchronized("start") - t0:.3f} s')
6. 评估指标
  • 平均精度均值 (mAP):衡量模型在不同召回率下的精度。
  • 精确率 (Precision):正确检测到的目标占所有检测到的目标的比例。
  • 召回率 (Recall):正确检测到的目标占所有真实目标的比例。
  • F1分数 (F1 Score):综合考虑精确率和召回率的评价指标。
7. 可视化结果
  • 绘制边界框:在图像上绘制预测的边界框,并显示类别标签和置信度。
  • 保存结果:将预测结果保存为图像文件或视频文件,便于后续分析和展示。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

QQ_1309399183

一角两角不嫌少

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值