【PyTorch】register_hook的使用

首先看一下正常的梯度计算例子:

#正常求导情况
v = torch.randn((1, 3), dtype=torch.float32, requires_grad=True)
z = v.sum()
z.backward()
print(v.grad)

输出:

tensor([[1., 1., 1.]])

 上面的代码中,当执行到z.backward()这一句代码的时候,就是计算变量z的偏导数,因为v=torch.randn(1,3)也就是1行3列,所以可以假设v=(v1, v2, v3),那么z=v1+v2+v3。所以z对v的偏微分就是:

\frac{\partial z}{\partial v}=\frac{\partial (v1+v2+v3)}{\partial v}=\frac{\partial (v1+v2+v3)}{\partial (v1,v2,v3)}=(\frac{\partial (v1+v2+v3)}{\partial v1},\frac{\partial (v1+v2+v3)}{\partial v2},\frac{\partial (v1+v2+v3)}{\partial v3})

 其中:

\frac{\partial (v1+v2+v3)}{\partial v1}=\frac{\partial v1}{\partial v2}+\frac{\partial v2}{\partial v2}+\frac{\partial v3}{\partial v2}=0+1+0=1

所以可以得出上面的偏微分结果为 :tensor([[1., 1., 1.]])。

如果我们需要对导数进行2倍的操作:

v = torch.randn((1, 3), dtype=torch.float32, requires_grad=True)
z = v.sum()
# lambda grad: grad*2是一个函数,即:
# def lambda(grad):
#    return grad*2
v.register_hook(lambda grad: grad*2)  
z.backward()
print(v.grad)

输出为:

tensor([[2., 2., 2.]])

可以看出v.register_hook()的作用是将反向传播过程中关于v的梯度给取出来,同时进行一些操作,上面代码所进行的操作是对关于v的梯度乘以2,当然,这里的梯度只是暂时取出来了,如果需要“长久的”保存梯度信息方便后续的计算的话,则可以如下代码所示:

grad_store = []
def function(grad):
    grad_store.append(grad)

v = torch.randn((1, 3), dtype=torch.float32, requires_grad=True)
z = v.sum()
v.register_hook(function)  
z.backward()

上面的代码即可将梯度保存到变量grad_store中,方便后面计算Grad-CAM等等。

  • 9
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值