计算图_非标量调用backward()求梯度

计算图_非标量调用backward()求梯度

当y不是标量时,向量y关于向量x的导数的最自然解释是一个矩阵。对于高阶和高维的y和x,求导的结果可以是一个高阶张量。
然而,虽然这些更奇特的对象确实出现在高级机器学习中(包括深度学习中),但当我们调用向量的反向计算时,我们通常会试图计算一批训练样本中每个组成部分的损失函数的导数。这里,我们的目的不是计算微分矩阵,而是批量中每个样本单独计算的偏导数之和。

x = torch.arange(4.0)
x.requires_grad = True
y = x * x
 

在这里插入图片描述

在这里插入图片描述

方法1:通过y.sum().backward()调用反向传播

y.sum().backward()
print(x.grad)

在这里插入图片描述
sum为y.sum()
在这里插入图片描述
把x带入得 x.grad为(0,2,4,8)
一个向量是不进行backward操作的,而sum()后,由于梯度为1,所以对结果不产生影响。反向传播算法一定要是一个标量才能进行计算。

方法2:传入shape和x一样的ones参数

y.backward(torch.ones(x.shape))
print(x.grad)

通过雅可比矩阵进行向量对向量的求导
在这里插入图片描述

带入x得出

torch.ones(x.shape)创造的向量为(1,1,1,1)

相乘得到x.grad = (0,2,4,6)

detach()

返回一个新的tensor,从当前计算图中分离下来的,但是仍指向原变量的存放位置(内存相同),不同之处只是requires_grad为false,得到的这个tensor不再有计算梯度的能力,反向传播时遇到该tensor将停止,不再继续传播

新tensor不能求梯度,若不修改新tensor则被detach()的张量还能求梯度

对backword()的理解

backward是通过反向传播函数来求梯度

import torch
a = torch.randn(size=(), requires_grad=True)
b = torch.randn(size=(), requires_grad=True)
c = torch.randn(size=(), requires_grad=True)

c = a * b
c.backward()


print( a.grad == b,a)
print( b.grad == a,b)


output:
tensor(True) tensor(-0.7874, requires_grad=True)
tensor(True) tensor(0.0025, requires_grad=True)

若在 torch 中 对定义的变量 requires_grad 的属性赋为 True ,那么此变量即可进行梯度以及导数的求解,在以上代码中,a,b,c 都可以理解为数学中的x,y,z进行运算,c 分别对 a,b 求导的结果为 b,a。

当c.backward() 语句执行后,会自动对 c 表达式中 的可求导变量进行方向导数的求解,并将对每个变量的导数表达存储到 变量名.grad 中。

  • 6
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值