import torch print(torch.__version__)
import torch
print(torch.__version__)
1.9.0
1.3 自动求梯度¶
1.3.1 概念
上一节介绍的Tensor
是这个包的核心类,如果将其属性.requires_grad
设置为True
,它将开始追踪(track)在其上的所有操作。完成计算后,可以调用.backward()
来完成所有梯度计算。此Tensor
的梯度将累积到.grad
属性中。
注意在调用
.backward()
时,如果Tensor
是标量,则不需要为backward()
指定任何参数;否则,需要指定一个求导变量。
如果不想要被继续追踪,可以调用.detach()
将其从追踪记录中分离出来,这样就可以防止将来的计算被追踪。此外,还可以用with torch.no_grad()
将不想被追踪的操作代码块包裹起来,这种方法在评估模型的时候很常用,因为在评估模型时,我们并不需要计算可训练参数(requires_grad=True
)的梯度。
Function
是另外一个很重要的类。Tensor
和Function
互相结合就可以构建一个记录有整个计算过程的非循环图。每个Tensor
都有一个.grad_fn
属性,该属性即创建该Tensor
的Function
(除非用户创建的Tensor
s时设置了grad_fn=None
)。
下面通过一些例子来理解这些概念。