优化器的使用,分为三步
# backprop
optimizer.zero_grad() #第一步梯度清零
loss.backward() # 第二步backward
optimizer.step() # 第三步更新梯度
优化器的使用,分为三步
# backprop
optimizer.zero_grad() #第一步梯度清零
loss.backward() # 第二步backward
optimizer.step() # 第三步更新梯度