Cudnn占用大量内存问题

13 篇文章 3 订阅
6 篇文章 0 订阅
在部署3D图像识别模型时,发现模型裁剪后内存占用减少不明显,主要由cudnn初始化导致。通过NVIDIA提供的代码测量GPU内存,发现在调用cudnn API后,内存占用增加约550MB。这表明模型进一步优化的空间有限,总计约800MB内存用于模型、封装插件和cudnn。
摘要由CSDN通过智能技术生成

      近来在对一个3D图像识别模型做部署裁剪时发现,做了一些有效的裁剪后,模型启动后占用的内存虽然减少了两三百个M,但是再继续对网络做裁剪缺减少不明显了,包含封装调用这个模型的deepstream插件在内始终占用800多个M,感觉很奇怪,于是花了些时间,捣腾琢磨网络本身的C++实现代码,找出哪些代码执行后占用了可观的内存,最后发现,其他跟训练有关的可减的都减了也没见省多少内存,但是模型启动的过程中,当cudnn的API被第一次调用时,启动有卡顿,同时看着内存一路不停飙升,把相关网络层的代码注释掉试试,结果后面的网络层中调用到cudnn的API时内存又照样飙升,看来cudnn需要占用很多内存。

     为了确认这点,查找了NVIDIA论坛,发现有人也反应过类似问题,NVIDIA也提供了个测试代码用于确认cudnn占用了多少内存,这个代码挺有用的,既可以用于测量你的GPU的内存多大(对于服务器上的NVIDIA GPU,各种型号GPU的内存大小都是已知的,但是对于Jetson各种板子上的GPU,NVIDIA给出各种板子的参数时从来不告诉你上面的GPU的内存是多大,这点很奇怪,似乎怕竞争对手知道?有了下面的代码就可以测量出来了,Nano上的GPU的内存是3.9G多,也就是4G),很显然这个代码可作为个小工具使用,记下来以便以后使用:

#include <stdio.h>
#include "cuda.h"
#include "cudnn.h"
#define ONE_MBYTE (1024*1024)

void printMemInfo()
{
    size_t free_byte ;
    size_t total_byte ;
    cudaError_t cuda_status = cudaMemGetInfo( &free_byte, &total_byte ) ;

    if ( cudaSuccess != cuda_status ){
        printf("Error: cudaMemGetInfo fails, %s\n", cudaGetErrorString(cuda_status));
        exit(1);
    }

    double free_db = (double)free_byte ;
    double total_db = (double)total_byte ;
    double used_db = total_db - free_db ;

    printf(" GPU memory usage: used = %.2f MB, free = %.2f MB, total = %.2f MB\n", used_db/ONE_MBYTE, free_db/ONE_MBYTE, total_db/ONE_MBYTE);
}

int main(){
    printf("Initial memory:");
    printMemInfo();

    cudnnHandle_t handle_;
    cudnnCreate(&handle_);
    printf("After cuDNN create:");
    printMemInfo();

    return 0;
}

   假设文件名叫test_gpu_cudnn_mem.cu,用nvcc编译它,然后执行:

        nvcc test_gpu_cudnn_mem.cu -lcudnn -o test_gpu
       ./test_gpu

可以看到类似下面的结果打印出来:

Initial memory: GPU memory usage: used = 1933.53 MB, free = 2022.68 MB, total = 3956.21 MB
After cuDNN create: GPU memory usage: used = 2484.90 MB, free = 1471.31 MB, total = 3956.21 MB

可以看到总的GPU内存是3.95621G也就是4G吧,cudnn的API被调用后,内存占用一下多了550M左右,运行多次可以看到虽然每次used数值不大一样,但是cudnn起来后,内存占用增加了550M左右。

     通过这个小程序知道,我要裁剪的模型已经没什么好减的了,还有100多M的参数和封装调用这个模型的deepstream插件占用的内存,加上cudnn占用的550M多内存,总共800M左右,也就那样了。  

### 回答1: 当在PyTorch中进行GPU计算时,内存耗尽的问题可能由于以下几种原因引起: 1. 模型过大:如果模型的参数量或层数过多,可能会导致GPU内存不足。解决这个问题的方法是减少模型的大小,可以通过减少隐藏层的数量或尝试使用更小的模型架构来缓解内存耗尽的问题。 2. 批量输入过大:较大的批量输入也会导致内存耗尽。一种解决方法是减小批量大小,但这可能会影响训练的稳定性和精度。另一种方法是使用分布式计算,将训练数据分成多个子集,并在多个GPU上并行处理。 3. 张量占用内存:在计算过程中,如果使用了过多的中间张量变量,可能会导致内存耗尽。要解决这个问题,可以尽量避免在计算中创建大量张量变量,尽量使用必要的变量并及时释放内存。 4. 数据类型选择:使用较高精度的数据类型(如float64)会使用更多的内存,可以尝试使用较低精度的数据类型(如float32)来减少内存消耗。PyTorch提供了float16数据类型,可以通过将模型和数据类型转换为float16来减少内存使用。 5. 内存回收:PyTorch使用自动内存回收机制,当计算完成后会自动释放内存。但有时会存在内存碎片问题,可以尝试手动释放不再使用的变量内存(使用`del`命令)或者在每个小批量训练后调用`torch.cuda.empty_cache()`来清空GPU缓存。 总之,减小模型规模、减小批量输入、避免过多中间张量变量、选择合适的数据类型以及适时释放内存可以有效解决PyTorch GPU计算过程中的内存耗尽问题。 ### 回答2: 当在PyTorch中进行GPU计算时,可能会遇到内存耗尽的问题。出现这个问题的原因通常是因为GPU上的内存不足以容纳所需的张量、模型参数和临时变量。 以下是一些解决这个问题的方法: 1. 减少数据集的批次大小:减少每个批次中的样本数量可以减少所需的内存。可以通过减小`batch_size`参数来实现,但要注意批次大小过小可能会影响模型的性能。 2. 使用`torch.utils.data.DataLoader`的`pin_memory`选项:`pin_memory`选项可以将内存中的数据固定,这将加快数据传输速度。但是,该选项会占用更多的内存。 3. 使用`torch.nn.DataParallel`或`torch.nn.DistributedDataParallel`:这些类可以在多个GPU上并行计算,从而减少每个GPU上的内存使用量。使用这些类需要确保每个GPU上的内存足够容纳模型和张量。 4. 减少模型的参数量:可以尝试减少模型的参数数量,例如通过减少模型的层数、每个层的神经元数量或使用更小规模的预训练模型。 5. 删除不必要的变量:在计算过程中,可以手动删除不再需要的中间变量或结果,以释放内存。 6. 使用半精度浮点数:将模型和张量的数据类型从32位浮点数(float32)转换为16位浮点数(float16)可以减少内存占用。这可以通过将模型和输入数据类型设置为`torch.float16`来实现。 7. 尝试更大的GPU显存:如果以上方法都无法解决内存耗尽的问题,可以考虑使用显存更大的GPU。 请注意,这只是一些可能的解决方法,具体的方法可能因情况而异。在实践中,可以尝试结合多个解决方法,以找到最适合的解决方案。 ### 回答3: 在使用PyTorch进行GPU计算时,可能会出现内存耗尽的问题。下面是一些解决这个问题的方法: 1. 减少批量大小(batch size):批量大小是在训练过程中输入神经网络的样本数量。通过减小批量大小可以降低内存的需求量。需要注意的是,减少批量大小可能会对模型的训练效果产生一定的影响。 2. 减少模型的大小:模型的大小直接影响了内存的使用量。可以通过减少模型的层数、减少每层的神经元数量等方式来减小模型的内存占用。 3. 延迟分配内存:有时候,在开始计算之前,PyTorch会预先分配一些内存,用于缓存计算结果。可以通过设置torch.backends.cuda.cudnn.benchmark = True来延迟内存分配,这样可以减少内存的使用。 4. 增加GPU内存:如果以上方法都无法解决内存耗尽的问题,可以考虑增加GPU的内存。这可以通过更换较大内存容量的GPU卡来实现。 5. 减少不必要的中间变量:在计算过程中,可能会产生一些中间变量。可以尝试减少或及时释放这些中间变量,以减少内存的使用。 6. 使用混合精度计算:可以使用半精度浮点数来减少内存的使用。PyTorch中提供了自动混合精度计算的方法,可以在一定程度上减小内存消耗。 总结,解决PyTorch GPU内存耗尽问题的方法包括减少批量大小、减小模型的大小、延迟内存分配、增加GPU内存、减少中间变量的使用以及使用混合精度计算。根据具体问题的情况选择合适的方法,以确保内存能够满足计算需求。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Arnold-FY-Chen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值