Trying to backward through the graph a second time, but the saved intermediate results have already

文章讲述了在使用PyTorch时遇到的错误,涉及到尝试多次反向传播但中间结果已被释放的情况。解决方法是确保在第一次调用backward时设置retain_graph=True,并指出当模型从numpy加载数据并作为输入时,需要使用detach()消除梯度问题。
摘要由CSDN通过智能技术生成

在使用pytorch时报错:

RuntimeError: Trying to backward through the graph a second time, but the saved intermediate results have already been freed. Specify retain_graph=True when calling backward the first time.

之后我loss里加了retain_graph=True也没有用

后来发现,模型中利用torch.from_numpy加载了外部数值变量,作为模型的输入:

shuzhi0=torch.from_numpy(np.array(ls_shuzhi))

然后打印查看shuzhi0这个tensor,发现他本身存在梯度:

..., grad_fn=<StackBackward>

因此我们需要消除他的梯度:

shuzhi0=torch.from_numpy(np.array(ls_shuzhi)).detach()
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值