解决显存不足问题:深度学习中的 Batch Size 调整【模型训练】

解决显存不足问题:深度学习中的 Batch Size 调整

在深度学习训练中,显存不足是一个常见的问题,特别是在笔记本等显存有限的设备上。本文将解释什么是 Batch Size,为什么调整 Batch Size 可以缓解显存不足的问题,以及调整 Batch Size 对训练效果的影响。

什么是 Batch Size?

Batch Size 是指在一次训练迭代(iteration)中传递给神经网络进行前向传播和后向传播的数据样本数量。整个数据集通常不会一次性传递给模型,而是分成多个较小的批次,每个批次逐步传递给模型进行训练。

为什么减小 Batch Size 可以缓解显存不足?

当 Batch Size 较大时,每次迭代需要加载更多的数据和中间计算结果(如激活值、梯度),这些都会占用显存。如果显存不足,训练过程会失败。通过减小 Batch Size,可以显著降低显存占用,使训练在显存有限的设备上顺利进行。

以下是一些具体原因:

  1. 显存占用减少:每个批次的数据和相应的中间计算结果都会占用显存。批次越大,占用的显存越多。
  2. 计算图的大小:批次越大,计算图的规模越大,需要存储的中间结果也越多。
  3. 显存碎片化:批次较大时,显存容易出现碎片化问题,导致实际可用的显存减少。

调整 Batch Size 的影响

  1. 梯度估计的准确性:较小的 Batch Size 会使梯度估计变得更加噪声,因为每次迭代中用于计算梯度的样本较少。虽然这种噪声可以帮助模型跳出局部最优,但也可能导致训练不稳定。
  2. 收敛速度:较小的 Batch Size 通常会使模型训练更慢,因为每次迭代处理的数据量较少。相比之下,较大的 Batch Size 可以更快地收敛,但需要更多的显存。
  3. 泛化能力:小批次训练可能具有更好的泛化能力,因为梯度的噪声相当于一种正则化,可以帮助模型避免过拟合。

具体案例:如何在显存有限的设备上进行训练

假设我们在一台只有 6G 显存的笔记本上进行深度学习训练,默认 Batch Size 设置为 16,但显存不足导致训练无法正常进行。
在这里插入图片描述

以下是解决这一问题的具体步骤:

  1. 减小 Batch Size:将 Batch Size 调整为较小的值,例如 8 或 4,直到训练可以顺利进行。

    batch_size = 8  # 根据显存情况调整
    
  2. 释放未使用的显存:手动清理显存以确保最大化可用显存。

    import torch
    torch.cuda.empty_cache()
    
  3. 使用梯度累积(Gradient Accumulation):如果减小 Batch Size 影响训练效果,可以采用梯度累积技术。

    accumulation_steps = 4  # 根据情况调整
    
    optimizer.zero_grad()
    for i, data in enumerate(dataloader, 0):
        inputs, labels = data
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
    
        if (i + 1) % accumulation_steps == 0:
            optimizer.step()
            optimizer.zero_grad()
    
  4. 调整显存分配策略:通过设置环境变量来调整 PyTorch 的显存分配策略。

    export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:128
    
  5. 使用混合精度训练(Mixed Precision Training):混合精度训练可以显著减少显存使用。

    from torch.cuda.amp import GradScaler, autocast
    
    scaler = GradScaler()
    
    for inputs, labels in dataloader:
        optimizer.zero_grad()
        with autocast():
            outputs = model(inputs)
            loss = criterion(outputs, labels)
        scaler.scale(loss).backward()
        scaler.step(optimizer)
        scaler.update()
    

通过以上方法,可以有效地减少显存使用,避免显存不足的问题。如果以上方法都不能解决问题,可能需要使用更大显存的 GPU 或分布式训练技术。

  • 28
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
yolov9-s模型准确率:93.5% 【香蕉成熟度数据集下载】https://download.csdn.net/download/DeepLearning_/88913966 【基于YOLOv8的香蕉成熟度分级识别系统源码】下载https://download.csdn.net/download/DeepLearning_/88241175 【使用教程】 一、环境配置 1、建议下载anaconda和pycharm 在anaconda配置好环境,然后直接导入到pycharm,在pycharm运行项目 anaconda和pycharm安装及环境配置参考网上博客,有很多博主介绍 2、在anacodna安装requirements.txt的软件包 命令为:pip install -r requirements.txt 或者改成清华源后再执行以上命令,这样安装要快一些 软件包都安装成功后才算成功 3、安装好软件包后,把anaconda对应的python导入到pycharm即可(不难,参考网上博客) 二、环境配置好后,开始训练(也可以训练自己数据集) 1、数据集准备 需要准备yolo格式的目标检测数据集,如果不清楚yolo数据集格式,或者有其他数据训练需求,请看博主yolo格式各种数据集集合链接:https://blog.csdn.net/DeepLearning_/article/details/127276492 里面涵盖了上百种yolo数据集,且在不断更新,基本都是实际项目使用。来自于网上收集、实际场景采集制作等,自己使用labelimg标注工具标注的。数据集质量绝对有保证! 本项目所使用的数据集,见csdn该资源下载页面的介绍栏,里面有对应的下载链接,下载后可直接使用。 2、数据准备好,开始修改配置文件 参考代码data文件夹下的banana_ripe.yaml,可以自己新建一个不同名称的yaml文件 train:训练集的图片路径 val:验证集的图片路径 names: 0: very-ripe 类别1 1: immature 类别2 2: mid-ripe 类别3 格式按照banana_ripe.yaml照葫芦画瓢就行,不需要过多参考网上的 3、修改train_dual.py的配置参数,开始训练模型 方式一: 修改点: a.--weights参数,填入'yolov9-s.pt',博主训练的是yolov9-s,根据自己需求可自定义 b.--cfg参数,填入 models/detect/yolov9-c.yaml c.--data参数,填入data/banana_ripe.yaml,可自定义自己的yaml路径 d.--hyp参数,填入hyp.scratch-high.yaml e.--epochs参数,填入100或者200都行,根据自己的数据集可改 f.--batch-size参数,根据自己的电脑性能(显存大小)自定义修改 g.--device参数,一张显卡的话,就填0。没显卡,使用cpu训练,就填cpu h.--close-mosaic参数,填入15 以上修改好,直接pycharm运行train_dual.py开始训练 方式二: 命令行方式,在pycharm的终端窗口输入如下命令,可根据自己情况修改参数 官方示例:python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights '' --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 训练完会在runs/train文件下生成对应的训练文件及模型,后续测试可以拿来用。 三、测试 1、训练完,测试 修改detect_dual.py的参数 --weights,改成上面训练得到的best.pt对应的路径 --source,需要测试的数据图片存放的位置,代码的test_imgs --conf-thres,置信度阈值,自定义修改 --iou-thres,iou阈值,自定义修改 其他默认即可 pycharm运行detect_dual.py 在runs/detect文件夹下存放检测结果图片或者视频
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值