自动求导基本上是各种深度学习框架的基本功能和最重要的功能之一,PyTorch也不例外。我们今天来体验一下PyTorch的自动求导吧。
一、设置Tensor的自动求导属性
所有的tensor都有.requires_grad属性,都可以设置成自动求导。具体方法就是在定义tensor的时候,让这个属性为True:
x = tensor.ones(2,4,requires_grad=True)
In [1]: import torch
In [2]: x = torch.ones(2,4,requires_grad=True)
In [3]: print(x)
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.]], requires_grad=True)
只要这样设置了之后,后面由x经过运算得到的其他tensor,就都有equires_grad=True属性了。
可以通过x.requires_grad来查看这个属性。
In [4]: y = x + 2
In [5]: print(y)
tensor([[3., 3., 3., 3.],
[3., 3., 3., 3.]], grad_fn=<AddBackward>)
In [6]: y.requires_grad
Out[6]: True
如果想改变这个属性,就调用tensor.requires_grad_()方法:
In [22]: x.requires_grad_(False)
Out[22]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.]])
In [21]: print(x.requires_grad,y.requires_grad)
False True
这里,注意区别tensor.requires_grad和tensor.requires_grad_()两个东西,前面是调用变量的属性值,后者是调用内置的函数,来改变属性。
二、来求导吧
下面我们来试试自动求导到底怎么样。
我们首先定义一个计算图(计算的步骤):
In [28]: x = torch.tensor([[1.,2.,3.],[4.,5.,6.]],requires_grad=True)
In [29]: y = x+1
In [30]: z = 2*y*y
In [31]: J = torch.mean(z)
这里需要注意的是,要想使x支持求导,必须让x为浮点类型,也就是我们给初始值的时候要加个点:“.”。不然的话,就会报错。
即,不能定义[1,2,3],而应该定义成[1.,2.,3.],前者是整数,后者才是浮点数。
上面的计算过程可以表示为:
计算图
好了,重点注意的地方来了!
x、y、z都是tensor,size为(2,3)的矩阵。但是J是对z的每一个元素加起来求平均,所以J是标量。
求导,只能是【标量】对标量,或者【标量】对向量/矩阵求导!
所以,上图中,只能J对x、y、z求导,而z则不能对x求导。
我们不妨试一试:
PyTorch里面,求导是调用.backward()方法。直接调用backward()方法,会计算对计算图叶节点的导数。
获取求得的导数,用.grad方法。
试图z对x求导:
In [31]: z.backward()
# 会报错:
Traceback (most recent call last)
<ipython-input-31-aa814b0a8cba> in <module>()
----> 1 z.backward()
RuntimeError: grad can be implicitly created only for scalar outputs
正确的应该是J对x求导:
In [33]: J.backward()
In [34]: x.grad
Out[34]:
tensor([[1.3333, 2.0000, 2.6667],
[3.3333, 4.0000, 4.6667]])
检验一下,求的是不是对的。
J对x的导数应该是什么呢?
J对x的导数
检查发现,导数就是:
[[1.3333, 2.0000, 2.6667],
[3.3333, 4.0000, 4.6667]]
总结一下,构建计算图(正向传播,Forward Propagation)和求导(反向传播,Backward Propagation)的过程就是:
好的图片,值得收藏
三、关于backward函数的一些其他问题:
1. 不是标量也可以用backward()函数来求导?
在看文档的时候,有一点我半天没搞懂:
他们给了这样的一个例子:
我在前面不是说“只有标量才能对其他东西求导”么?它这里的y是一个tensor,是一个向量。按道理不能求导呀。这个参数gradients是干嘛的?
但是,如果看看backward函数的说明,会发现,里面确实有一个gradients参数:
从说明中我们可以了解到:
如果你要求导的是一个标量,那么gradients默认为None,所以前面可以直接调用J.backward()就行了
如果你要求导的是一个张量,那么gradients应该传入一个Tensor
那么这个时候是什么意思呢?
在StackOverflow有一个解释很好:
一般来说,我是对标量求导,比如在神经网络里面,我们的loss会是一个标量,那么我们让loss对神经网络的参数w求导,直接通过loss.backward()即可。
但是,有时候我们可能会有多个输出值,比如loss=[loss1,loss2,loss3],那么我们可以让loss的各个分量分别对x求导,这个时候就采用:
loss.backward(torch.tensor([[1.0,1.0,1.0,1.0]]))
如果你想让不同的分量有不同的权重,那么就赋予gradients不一样的值即可,比如:
loss.backward(torch.tensor([[0.1,1.0,10.0,0.001]]))
这样,我们使用起来就更加灵活了,虽然也许多数时候,我们都是直接使用.backward()就完事儿了。
2. 一个计算图只能backward一次
一个计算图在进行反向求导之后,为了节省内存,这个计算图就销毁了。
如果你想再次求导,就会报错。
比如你定义了计算图:
一个计算图
你先求p求导,那么这个过程就是反向的p对y求导,y对x求导。
求导完毕之后,这三个节点构成的计算子图就会被释放:
子图被释放
那么计算图就只剩下z、q了,已经不完整,无法求导了。
所以这个时候,无论你是想再次运行p.backward()还是q.backward(),都无法进行,报错如下:
RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.
好,怎么办呢?
遇到这种问题,一般两种情况:
1. 你的实际计算,确实需要保留计算图,不让子图释放。
那么,就更改你的backward函数,添加参数retain_graph=True,重新进行backward,这个时候你的计算图就被保留了,不会报错。
但是这样会吃内存!,尤其是,你在大量迭代进行参数更新的时候,很快就会内存不足,memory out了。
2. 你实际根本没必要对一个计算图backward多次,而你不小心多跑了一次backward函数。
通常,你要是在IPython里面联系PyTorch的时候,因为你会反复运行一个单元格的代码,所以很容易一不小心把backward运行了多次,就会报错。这个时候,你就检查一下代码,防止backward运行多次即可。
作者:Stack_empty
链接:https://www.jianshu.com/p/a105858567df
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。