对抗神经网络GAN中d_loss g_loss两种更新参数的图解释
如果先计算d_loss,在d_loss.backward()后会默认自动释放掉【real_img -> G -> fake_img -> D】这个计算图,但是在执行g_loss.backward()时需要【real_img -> G -> fake_img】这一段的计算图,所以会报告retain graph的错误,解决办法:g_loss.backward(reta...
原创
2019-11-07 17:14:29 ·
9914 阅读 ·
1 评论