PyTorch 多个网络反向传播时出现梯度计算错误

torch具体报错内容如下

RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.FloatTensor [128, 1]], which is output 0 of AsStridedBackward0, is at version 
2; expected version 1 instead. Hint: enable anomaly detection to 
find the operation that failed to compute its gradient, with torch.autograd.set_detect_anomaly(True).

我现在正在做的算法是关于强化学习MADDPG,需要用到两个网络actor和critic

经过调试之后发现,我在计算出critic loss之后并没有进行critic网络的反向传播,而是开始计算actor loss。两个网络的loss都计算完毕后才开始进行反向传播就会出现上述报错。

解决方法就是将两个网络的loss和backward都单独封装计算即可

  • 8
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
PyTorch默认只计算一阶导数(梯度),不直接支持计算二阶导数。但是,可以通过以下方法来计算二阶导数: 1.手动计算Hessian矩阵 可以使用PyTorch中的自动微分机制计算一阶导数,在此基础上,可以手动计算二阶导数。假设我们要计算一个标量函数$f(x)$的二阶导数,第一步是计算$f(x)$的一阶导数$g=\frac{\partial f(x)}{\partial x}$,然后计算$g$的一阶导数$h=\frac{\partial g}{\partial x}$,最终得到$f$的二阶导数$h$。可以使用链式法则来计算$h$,例如: ```python import torch x = torch.tensor([1.0], requires_grad=True) # 计算一阶导数 y = x ** 2 g = torch.autograd.grad(y, x, create_graph=True)[0] # 计算二阶导数 h = torch.autograd.grad(g, x)[0] ``` 在这个例子中,我们首先计算$x^2$的一阶导数,即$2x$,然后计算$2x$的一阶导数,即$2$,从而得到二阶导数为$2$。 如果要计算多个变量的二阶导数,可以将它们放在一个向量中,并将梯度和Hessian矩阵表示为矩阵形式。例如,假设我们要计算一个函数$f(x,y)=x^2+y^2$的一阶导数向量和二阶导数矩阵,可以这样做: ```python import torch x = torch.tensor([1.0], requires_grad=True) y = torch.tensor([2.0], requires_grad=True) # 计算一阶导数 z = x ** 2 + y ** 2 g = torch.autograd.grad(z, (x,y), create_graph=True) # 计算二阶导数 h = torch.zeros((2,2)) for i, var in enumerate([x,y]): for j, gvar in enumerate(g): h[i, j] = torch.autograd.grad(gvar, var)[0] ``` 在这个例子中,我们首先计算$f(x,y)$的一阶导数向量$(2x,2y)$,然后计算每个元素的一阶导数,从而得到二阶导数矩阵$\begin{bmatrix}2 & 0 \\ 0 & 2 \end{bmatrix}$。注意,我们需要手动创建一个零矩阵来存储Hessian矩阵。 2.使用torch.autograd.functional.hessian函数 PyTorch 1.8版本新增了一个torch.autograd.functional.hessian函数,可以用来计算二阶导数(Hessian矩阵)。使用该函数,我们只需要提供要计算Hessian矩阵的函数和输入变量,就可以得到Hessian矩阵。例如,假设我们要计算函数$f(x)=\sin(x_1+x_2)+x_1x_2$在输入$(\pi/4, \pi/4)$处的Hessian矩阵,可以这样做: ```python import torch x = torch.tensor([3.14/4, 3.14/4], requires_grad=True) def f(x): return torch.sin(x[0]+x[1]) + x[0]*x[1] hessian = torch.autograd.functional.hessian(f, x) ``` 在这个例子中,我们定义了一个函数$f(x)$,然后计算在输入$x=(\pi/4, \pi/4)$处的Hessian矩阵。注意,输入$x$应该是一个张量,并且需要将requires_grad属性设置为True。在计算Hessian矩阵,我们只需要调用torch.autograd.functional.hessian函数,并传入函数$f$和输入变量$x$即可。 需要注意的是,计算Hessian矩阵的运算量非常大,因此在实际应用中应该尽量避免计算Hessian矩阵。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值