Pytorch 分析反向梯度检查网络

  当训练时loss下降效果不理想或自定义损失函数时,需要检查反向回传梯度是否正常,网络权重是否在更新。

打印网络中的层的梯度

  参考pytorch 打印网络回传梯度,在loss.backward()后,取出网络各层属性,并分析权重及其梯度信息。

for name, weight in net.named_parameters():
	# print("weight:", weight) # 打印权重,看是否在变化
	if weight.requires_grad:
		# print("weight:", weight.grad) # 打印梯度,看是否丢失
		# 直接打印梯度会出现太多输出,可以选择打印梯度的均值、极值,但如果梯度为None会报错
		print("weight.grad:", weight.grad.mean(), weight.grad.min(), weight.grad.max())

打印参数的梯度

  对于自己设计的网络或损失函数,当设计有误时可能网络中各层都没有梯度,这时需要通过分析输入输出的中间变量Tensor来分析梯度是在哪个环节消失的。参考pytorch中的钩子(Hook)有何作用?李斌的回答,如果在训练中打印中间变量的梯度时会得到None,这是因为

这个问题在PyTorch的论坛上有人提问过,开发者说是因为当初开发时设计的是,对于中间变量,一旦它们完成了自身反传的使命,就会被释放掉。

  因此需要添加hook来打印中间变量的梯度:

# 方法一
def print_grad(grad):
    print(grad)

def tran():
	...
	# 对于中间变量 y
	y.register_hook(print_grad)
	loss.backward()
	...

# 方法二,适用于Python3
	y.register_hook(lambda grad: print(grad)) 

  

  

  • 5
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch 的自定义梯度可以通过重载 PyTorch 的 autograd.Function 类来实现。具体来说,我们需要定义一个新的类来继承自 autograd.Function,然后实现它的 forward 和 backward 方法。 在 forward 方法中,我们需要定义如何计算前向传播结果。在 backward 方法中,我们需要定义如何计算梯度,并将梯度传递去。在 backward 方法中,我们可以通过输入的 grad_output 参数获取到反向传播的梯度,然后通过计算得到输入的梯度,并将其返。 下面是一个简单的例子,演示如何定义一个自定义的 sigmoid 函数,并计算它的梯度: ```python import torch class SigmoidFunction(torch.autograd.Function): @staticmethod def forward(ctx, input): ctx.save_for_backward(input) return 1 / (1 + torch.exp(-input)) @staticmethod def backward(ctx, grad_output): input, = ctx.saved_tensors sigmoid = 1 / (1 + torch.exp(-input)) return grad_output * sigmoid * (1 - sigmoid) x = torch.randn(3, requires_grad=True) sigmoid = SigmoidFunction.apply(x) sigmoid.sum().backward() print(x.grad) ``` 在这个例子中,我们定义了一个 SigmoidFunction 类,并实现了它的 forward 和 backward 方法。在 forward 方法中,我们计算了 sigmoid 函数的值,并将输入保存在 ctx 对象中,以便在反向传播时使用。在 backward 方法中,我们通过计算 sigmoid 的导数,来计算输入的梯度,并将其返。 最后,我们使用 SigmoidFunction.apply 方法来调用自定义的 sigmoid 函数,并计算它的梯度。我们可以使用 x.grad 来获取 x 的梯度值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值