pytorch 清楚缓存_如何在PyTorch中清除Cuda内存

I am trying to get the output of a neural network which I have already trained. The input is an image of the size 300x300. I am using a batch size of 1, but I still get a CUDA error: out of memory error after I have successfully got the output for 25 images.

I searched for some solutions online and came across torch.cuda.empty_cache(). But this still doesn't seem to solve the problem.

This is the code I am using.

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

train_x = torch.tensor(train_x, dtype=torch.float32).view(-1, 1, 300, 300)

train_x = train_x.to(device)

dataloader = torch.utils.data.DataLoader(train_x, batch_size=1, shuffle=False)

right = []

for i, left in enumerate(dataloader):

print(i)

temp = model(left).view(-1, 1, 300, 300)

right.append(temp.to('cpu'))

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在 Windows 系统pytorch_cuda_alloc_conf 是一个用于配置 PyTorchCUDA(Compute Unified Device Architecture)框架上进行 GPU 内存分配的相关工具。PyTorch 是一个在深度学习领域非常流行的开源机器学习框架,它提供了对图形处理器(GPU)的支持,以加速深度学习模型的训练和推理过程。 pytorch_cuda_alloc_conf 可以用于配置 PyTorchCUDA 框架使用的 GPU 内存分配策略。在深度学习模型训练和推理过程,GPU 内存是非常宝贵的资源,并且需要合理利用和管理。pytorch_cuda_alloc_conf 工具提供了一些参数和选项,供用户根据自己的需求和硬件环境来优化 GPU 内存的使用。 该工具具体包含以下参数和选项: 1. enable_caching_allocator:可以设置为 true 或 false,用于启用或禁用缓存分配器。缓存分配器可以减少内存碎片,提高内存的利用率,但也会增加内存的占用。 2. cached_benchmark:设置为 true 或 false,用于启用或禁用缓存分配器的基准功能。当启用缓存分配器时,使用基准功能可以更好地选择合适的缓存大小。 3. allocator_type:可以设置为 cuda 或 prefetcher_cuda,用于选择分配器类型。cuda 是默认的分配器,prefetcher_cuda 是一种实验性的分配器,用于进一步加速内存分配和访问。 4. cuda_prefetch_async:可以设置为 true 或 false,用于启用或禁用异步预取。异步预取可以在计算和数据传输之间提前将数据加载到 GPU 内存。 通过调整这些参数,用户可以根据自己的实际情况来优化 GPU 内存的分配和使用,从而提高模型的训练和推理效率。但需要注意的是,在调整参数之前,我们应该先了解自己的硬件环境和模型需求,以及对内存的预期使用情况,以便找到最合适的配置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值