【深度学习】【YoloV5】单机多卡训练 多机多卡训练

官网给的:
https://github.com/ultralytics/yolov5/issues/475

指定显卡

指定单显卡:

$ python train.py  --batch 64 --data coco.yaml --weights yolov5s.pt --device 0

使用pytorch 的DataParallel mode 指定多显卡(不推荐),为啥不推荐,因为反传的时候梯度默认都在0卡上算了,所以显存分配不均衡,在显卡0占用非常多,别的显卡的显存又占用没那么多。训练时间也没增加多少。

$ python train.py  --batch 64 --data coco.yaml --weights yolov5s.pt --device 0,1

单机多卡(推荐)

使用pytorch的 DistributedDataParallel Mode 进行单机多卡训练。(推荐)

$ python -m torch.distributed.launch --nproc_per_node 2 train.py --batch 64 --data coco.yaml --weights yolov5s.pt --device 0,1

–nproc_per_node specifies how many GPUs you would like to use. In the example above, it is 2.
–batch is the total batch-size. It will be divided evenly to each GPU. In the example above, it is 64/2=32 per GPU.</

  • 4
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
YOLov5是一个流行的目标检测模型,可以使用多卡进行训练以加快训练速度。下面是使用YOLov5进行单机多卡训练的步骤: 1. 准备数据集:首先,你需要准备用于目标检测的数据集。确保数据集已经按照YOLov5的要求进行了标注和划分。 2. 安装依赖:确保你已经安装了PyTorch和其他相关依赖。 3. 下载YOLov5代码:你可以从YOLov5的官方GitHub仓库下载最新的代码。 4. 配置训练参数:在YOLov5代码的文件中,你可以找到一个名为"hyp.yaml"的文件,其中包含了训练的超参数设置。根据你的需求进行相应的配置,例如学习率、批大小等。 5. 设置多卡训练:打开"train.py"文件,找到以下代码行: ``` # 自动选择最佳GPU gpus = [0] # 默认使用单个GPU ``` 将其修改为: ``` # 使用多个GPU gpus = [0, 1, 2, 3] # 选择你想要使用的GPU编号 ``` 6. 启动训练:在终端中运行以下命令开始训练: ``` python train.py --batch-size {batch_size} --cfg {config_file} --data {data.yaml} --multi-scale --img {image_size} --device {device} ``` 其中,{batch_size}是每个GPU的批大小,{config_file}是模型配置文件路径,{data.yaml}是数据集配置文件路径,{image_size}是输入图像的尺寸,{device}是使用的设备(例如cuda:0)。 请注意,你可能需要根据你的具体环境和需求进行适当的调整。多卡训练通常可以显著提高训练速度,但也可能会增加训练过程中的内存消耗。确保你的硬件和环境能够支持多卡训练
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值