Pytorch 内存泄漏 在训练的过程中发现,程序占用的内存以一定的速度增加,参考网上的资料发现,是由于在循环中 loss_list.append(loss)的时候没有使用loss.item(),导致每次迭代的时候loss的autograd的历史不断被保存,内存未被释放。 参考链接: 记一次Pytorch内存泄露的排查与处理 pytorch训练过程内存泄漏