标量 向量 标量求导链式法则_PyTorch自动求导:Autograd包案例详解

caea867909ea3b75b352149107acbc5d.png PyTorch中,所有神经网络的核心是 autograd 包。autograd 包为张量上的所有操作提供了自动求导机制。 它是一个在运行时定义(define-by-run)的框架,这意味着反向传播是根据代码如何运行来决定的,并且每次迭代可以是不同的。 张量

1517c42d6eb4eed5df7ea6b5edcb2720.png

张量:n维向量 torch.Tensor 是这个包的核心类。如果设置它的属性 .requires_grad 为 True,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性。
x = torch.ones(2, 2, requires_grad=True #创建一个张量并设置
requires_grad=True用来追踪其计算历史
print(x)

6cd502f0327c13793941eda16b1fe8a0.png

要阻止一个张量被跟踪历史,可以调用 .detach() 方法将其与计算历史分离,并阻止它未来的计算记录被跟踪。

ac714f7f3bb7a82c286a7026afdefeaa.png

为了防止跟踪历史记录(和使用内存),可以将代码块包装在 with torch.no_grad(): 中。在评估模型时特别有用,因为模型可能具有 requires_grad = True 的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。 还有一个类对于autograd的实现非常重要:Function。 Tensor 和 Function 互相连接生成了一个无圈图(acyclic graph),它编码了完整的计算历史。每个张量都有一个 .grad_fn 属性,该属性引用了创建 Tensor 自身的Function(除非这个张量是用户手动创建的,即这个张量的 grad_fn 是 None )。

0764af485e86a740a7f30170c388c9e9.png

如果需要计算导数,可以在 Tensor 上调用 .backward()。如果 Tensor 是一个标量(即它包含一个元素的数据),则不需要为 backward() 指定任何参数,但是如果它有更多的元素,则需要指定一个 gradient 参数,该参数是形状匹配的张量。
y = x + 2  # 对这个张量做一次运算

362f4622d7bd3f294c8ea5c02cdea357.png

y是计算的结果,所以它有grad_fn属性。

5cff2d2c87a654b5e0793df996aa8e87.png

z = y * y * 3  # 对y进行更多操作
out = z.mean()#
print(z, out)

8ad814ed8193c8c77440d1d5602fa70d.png

.requires_grad_(...) 原地改变了现有张量的 requires_grad 标志。如果没有指定的话,默认输入的这个标志是 False。
a = torch.randn(2, 2)
a = ((a * 3) / (a - 1))
print(a.requires_grad)
a.requires_grad_(True)
print(a.requires_grad)
b = (a * a).sum()
print(b.grad_fn)

03eafdf48aa106858f4598cd15b3f996.png

梯度

35012861e1a266a0cb5618fec74f88dc.png

梯度:方向导数,函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。 现在开始进行反向传播,因为 out 是一个标量,因此 out.backward() 和out.backward(torch.tensor(1.)) 等价。
out.backward()
输出导数 d(out)/dx
print(x.grad)

7a91cd9406658af2149e25c8b818f6c4.png

我们的得到的是一个数取值全部为4.5的矩阵。 计算步骤:

5b6fb1e6e4a6c3d2381dcbb7e232266d.png

数学上,若有向量值函数 y =f(x ),那么 y 相对于 x 的梯度是一个雅可比矩阵:

a94802cf7379740c248f1d0a0c7d2136.png

通常来说,torch.autograd 是计算雅可比向量积的一个“引擎”。根据链式法则,雅可比向量积:

822402c9fcfb83e913b4c2e360641e4e.png

雅可比向量积的这一特性使得将外部梯度输入到具有非标量输出的模型中变得非常方便。 现在我们来看一个雅可比向量积的例子:
x = torch.randn(3, requires_grad=True)
y = x * 2
while y.data.norm() < 1000:
y = y * 2
print(y)

cb44c3d7d0116002e21c31afce2e48f5.png

在这种情况下,y 不再是标量。torch.autograd 不能直接计算完整的雅可比矩阵,但是如果我们只想要雅可比向量积,只需将这个向量作为参数传给 backward:
v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)
print(x.grad)

71dd898abc105a67ffaf3759a63324bf.png

也可以通过将代码块包装在 with torch.no_grad(): 中,来阻止autograd跟踪设置了 .requires_grad=True 的张量的历史记录。
print(x.requires_grad)print((x ** 2).requires_grad)with torch.no_grad():print((x ** 2).requires_grad)

f35d48c16d213e82de94d5ef92da093e.png

- END - 文源网络,仅供学习之用,如有侵权,联系删除。往期精彩

efdbf7de4414be65685a7a7d9219522b.png

◆  50款开源工具你都用过吗?

◆  python+C、C++混合编程的应用

◆  python网络爬虫的基本原理详解

◆  Python自动操控excel,一小时解决你一天的工作

◆  如何用Python增强Excel,减少处理复杂数据的痛苦?

6b33a7acbe2e3ddc56d2d34429abc78c.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值