注:
torch.no_grad()、eval()、requires_grad 的区别:
torch.no_grad()不进行backpropagation,
eval()回传但不更新梯度,
parameters.requires_grad=False :误差仍然反向传播,梯度不更新
【笔记】parameters.requires_grad=False :误差仍然反向传播,梯度不更新_程序猿的探索之路的博客-CSDN博客
eg:
eval() 和 with torch.no_grad() 连用:
正文: