在程序中引用cuda.memory函数监控GPU内存

torch.cuda.memory_allocated()torch.cuda.memory_reserved()是用来监控GPU内存使用情况的函数。

torch.cuda.memory_allocated()返回的是当前已经被Tensor分配的GPU内存量,单位是字节。这个值是已经被分配出去,但不一定全部在使用中的内存量。

torch.cuda.memory_reserved()返回的是当前已经被PyTorch保留的GPU内存量,单位也是字节。这个值是已经被PyTorch预留,但可能还没有分配出去的内存量。

在你的输出Before training one epoch: CUDA Memory Allocated: 252406784 Memory Reserved: 1073741824中,CUDA Memory Allocated: 252406784表示在开始训练一个epoch之前,已经有约252MB的GPU内存被Tensor分配了。Memory Reserved: 1073741824表示有约1GB的GPU内存被PyTorch预留了。

这两个值可以帮助你理解你的模型和数据如何使用GPU内存,以及是否有内存泄漏的问题。例如,如果在训练过程中,torch.cuda.memory_allocated()的值持续增长,那么可能存在内存泄漏的问题。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值