optimizer.zero_grad()
loss, hidden = model(data, hidden, targets)
loss.backward()
torch.nn.utils.clip_grad_norm(model.parameters(), args.clip)
optimizer.step()
作者:Z609834342
来源:CSDN
原文:https://blog.csdn.net/Z609834342/article/details/84035179
版权声明:本文为博主原创文章,转载请附上博文链接!