pytorch训练过程中的内存泄漏 训练到一半总是提示内存已满,bug new Ram 注意自动求梯度的值 特别是loss,不能以张量的形式随便参与运算 1.loss_list.append(loss)