在tensor这个类中,如果将其属性 requires_grad设置为true,它将追踪在其上的所有操作(利于反向梯度传播)。完成计算后,可以调用backward()来完成所有梯度计算,此时tensor的梯度将累积到 tensor.grad()属性中
如果不想被追踪,比如在画图,输出时,可以调用 .detach()将其从追踪记录里分离出来,这样就可以防止将来的计算被追踪。
此外 在优化算法时还可以用 with torch,no_grad()将不想被追踪的操作代码包裹起来,固定住,因为此时不需要梯度传播了
x = torch.tensor(1.0, requires_grad=True)
y1 = x ** 2
with torch.no_grad():
y2 = x ** 3
y3 = y1 + y2
print(x.requires_grad)
print(y1, y1.requires_grad) # True
print(y2, y2.requires_grad) # False
print(y3, y3.requires_grad) # True