在PyTorch中,对模型参数的梯度置0时通常使用两种方式:model.zero_grad()和optimizer.zero_grad()。 model.zero_grad() model.zero_grad()的作用是将所有模型参数的梯度置为0。其源码如下: for p in self.parameters(): if p.grad is not None: p.grad.detach_() p.grad