pytorch: grad is None while training

原因可能是网络定义过程中存在没有进行前向计算的层,当计算loss时这些层没有参与运算,因此梯度无法传播到这些层

解决办法:

for p in model.parameters():

if p.grad is not None:

print(p.grad.data)

阅读更多
文章标签: pytorch 深度学习
个人分类: pytorch
上一篇记录阿里AI Lab电话面试 2018.4.4
下一篇记录腾讯实习生现场面试:2018.4.16
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

关闭
关闭