Loss.backward()

若只有一个loss

outputs = model(inputs)
loss = criterrion(outputs,target)

optimizer.zero_grad()
loss.backward()
optimizer.step()

(1)计算损失;

(2)清除之前的梯度 optimizer.zero_grad()

(3)loss.backward() ,计算当前梯度,反向传播

(4)根据当前梯度更新网络参数,一个batch数据会计算一次梯度,然后optimizer.step()更新。

loss1= Loss(output[0], target)
loss1.backward()
loss2= Loss(output[1], target)
loss2.backward()

这样会报错RuntimeError: Trying to backward through the graph a second time, 
but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.

因为pytorch,一张图只允许一次backward,每次进行完之后,中间的变量就会被释放掉。
所以loss2.backward()时计算图已经没了,就没办法计算梯度了。

解决办法是loss.backward(retain_grad=True)

即暂时不释放计算图,在后续训练过程中计算图不释放,会一直累积,因此需要在最后一个loss是释放掉计算图loss.backward(),放置OOM

  • 5
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值