骚操作:循环训练多个不同数据集的模型,显存占用得不到释放!
那么,在python上,如何释放pytorch开辟的显存呢?
PyTorch提供了上下文管理器来控制GPU内存分配。可以使用torch.cuda.empty_cache()来释放所有未使用的缓存内存。以下是一个示例:
import torch
torch.cuda.empty_cache()
骚操作:循环训练多个不同数据集的模型,显存占用得不到释放!
那么,在python上,如何释放pytorch开辟的显存呢?
PyTorch提供了上下文管理器来控制GPU内存分配。可以使用torch.cuda.empty_cache()来释放所有未使用的缓存内存。以下是一个示例:
import torch
torch.cuda.empty_cache()