one of the variables needed for gradient computation has been modified by an inplace operation

import torch
import torch.optim

x = torch.tensor([3, 6], dtype=torch.float32)
x.requires_grad_(True)
optimizer = torch.optim.SGD([x], lr=0.1, momentum=0)
f = (x**2).sum()
for i in range(100):

    optimizer.zero_grad()
    f.backward(retain_graph=True)
    optimizer.step()
    print(i, x.grad, f)

代码报错

RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.FloatTensor [2]] is at version 1; expected version 0 instead. Hint: enable anomaly detection to find the operation that failed to compute its gradient, with torch.autograd.set_detect_anomaly(True).

这是因为:

在pytorch追踪计算的时候,会生成一个计算图,而本例中f=x[0]^2+x[1]^2,计算图中的偏导含有待更新的张量x,例如df/dx[0]=2x[0],在反向传播时,由于优化器step()方法把张量x更新了,导致计算图中的参数被更新了

解决办法:

讲构图的过程写在每次更新参数后,也就是循环内,如下

import torch
import torch.optim

x = torch.tensor([3, 6], dtype=torch.float32)
x.requires_grad_(True)
optimizer = torch.optim.SGD([x], lr=0.1, momentum=0)

for i in range(100):
    f = (x ** 2).sum()
    optimizer.zero_grad()
    f.backward(retain_graph=True)
    optimizer.step()
    print(i, x.grad, f)

另外可以验证的是,如果计算图中的参数没有待更新的张量,那么构图的过程放在循环外也是可以的,比如:

import torch
import torch.optim

x = torch.tensor([3, 6], dtype=torch.float32)
x.requires_grad_(True)
optimizer = torch.optim.SGD([x], lr=0.1, momentum=0)
f = (x*2).sum()

for i in range(100):
    optimizer.zero_grad()
    f.backward(retain_graph=True)
    optimizer.step()
    print(i, x.grad, f)

此时可以发现,df/dx[0]=df/dx[1]=2,不管更新多少次参数,图都不会被改变,所以程序不会报错。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值