optimizer.zero_grad() #把每个参数的梯度设置为0
loss.backyard() #计算参数梯度
optimizer.step() #更新梯度
loss的计算方法为每一个epoch的所有loss相加,取平均值
#这样就可以定义一个感知机
net = nn.Sequential(nn.Linear(4, 10), nn.ReLU(), nn.Linear(10, 1))
tensor转为numpy
tensor.detach().numpy()
optimizer.zero_grad() #把每个参数的梯度设置为0
loss.backyard() #计算参数梯度
optimizer.step() #更新梯度
loss的计算方法为每一个epoch的所有loss相加,取平均值
#这样就可以定义一个感知机
net = nn.Sequential(nn.Linear(4, 10), nn.ReLU(), nn.Linear(10, 1))
tensor转为numpy
tensor.detach().numpy()