关于pytorch使用时 内存飙升的问题记录

问题

这次做了一个人脸检测加识别的项目,由于开发在服务器上开发,没发现问题,但是当部署到jetson盒子上时发现内存会异常增高。以下是

记录总结

在这里插入图片描述
在使用pytorch gpu运行时,会开辟额外的空间,网上有理论说在gpu上pytorch有自己的函数等,所以会异常占用,另外在cpu上检测模型加载时内存也很高的问题,还没有比较合理的解释,不过我在 后面转换为tensorrt之后发现及时只在开头引入了pytorch序列化函数,后面内存也会多占用2个g左右。

解决办法

坦白说,并没有找到什么解决办法,最好的办法就是不用pytorch,诚然在训练时确实码代码比较方便,但是部署的内存占用确实让人难以接受,另外如果需要实时推理,在硬件功能稍弱的情况下,这个推理速度也是跟不上的。所以建议大家还是转成 tensorrt进行推理。

记录

GPU测试
未开始前 内存占用1.8G
在这里插入图片描述
只加载检测模型 占用3.4G(我用的检测模型特别小!)
在这里插入图片描述
只加载检测模型+推理 占用4.8G
在这里插入图片描述

只加载识别模型 占用3.7G
在这里插入图片描述

只加载识别模型+推理 占用 4.8G
在这里插入图片描述

两个模型一起加载 占用3.8G
在这里插入图片描述

两个模型一起加载并推理 占用5.9G

在这里插入图片描述

搜索了以下问题,有盆友说是因为在pytorch内部使用了自己的cuda核函数,所以内存会很高,如果使用cpu推理就会小很多,这里也测试了以下cpu下的内存占用。

加载检测模型 3.4G

在这里插入图片描述
使用cpu 只加载检测模型+推理 3.8G
在这里插入图片描述

Cpu只加载识别模型
在这里插入图片描述
使用cpu 只加载识别模型+推理 3.7G
在这里插入图片描述

Cpu两个加载 3.7G
在这里插入图片描述

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Pytorch是一种基于Python语言的开源深度学习框架,其提供了强大的GPU计算能力。在Pytorch中,使用GPU加速可以显著地提高模型的训练速度和效率,尤其是在处理大规模数据集和深层网络。 然而,当使用Pytorch进行大规模的深度学习训练,可能会出现GPU内存超出的问题。这是因为深度学习网络通常需要处理大量的数据和参数,需要更多的内存空间来存储中间结果和计算缓存。如果GPU内存不足,就会导致程序崩溃或者无法正常运行。 为了解决这个问题,可以采用以下几种方法: 1. 减小batch size:减小批量大小可以减少每个小批量所需要的内存量,从而减少GPU内存的压力。但减小批量大小会降低训练速度和模型的收敛速度,需要权衡利弊。 2. 使用分布式训练:分布式训练可以将训练数据分布到多个GPU上,并行计算,从而降低每个GPU的负担。但需要对代码进行一定的修改和调整,并且需要在多个GPU之间进行通信,涉及到一定的技术难度。 3. 调整模型结构:可以通过精简模型结构、减少模型参数等方式来降低模型的计算复杂度,从而减少GPU内存占用。但调整模型结构可能会影响模型的性能和精度。 4. 提高GPU显存的利用率:可以通过将数据存储和计算转化为张量形式、采用深度学习库的API等方式来提高GPU显存的利用率,从而减少内存占用。 在使用Pytorch进行深度学习训练,需要根据具体情况采用以上的一种或多种方法来解决GPU内存超出的问题,以保证训练的稳定性和效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值