- 博客(1)
- 收藏
- 关注
原创 pytorch 优化器(optim)不同参数组,不同学习率设置
optim 的基本使用for do:1. 计算loss2. 清空梯度3. 反传梯度4. 更新参数cifiron = nn.MSELoss()optimiter = torch.optim.SGD(net.parameters(),lr=0.01,momentum=0.9)for i in range(iters): out = net(inputs) loss =...
2019-07-01 16:33:51 28864 11
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人