pytorch: grad is None while training

原因可能是网络定义过程中存在没有进行前向计算的层,当计算loss时这些层没有参与运算,因此梯度无法传播到这些层

解决办法:

for p in model.parameters():

if p.grad is not None:

print(p.grad.data)

没有更多推荐了,返回首页

私密
私密原因:
请选择设置私密原因
  • 广告
  • 抄袭
  • 版权
  • 政治
  • 色情
  • 无意义
  • 其他
其他原因:
120
出错啦
系统繁忙,请稍后再试