Pytorch学习——优化器
1.优化器的使用pytorch的优化器在torch.optim中,使用时,先定义一个优化器,以adam为例:optimizer = optim.Adam( model.parameters(), lr=config.TRAIN.LR,)在计算完每一个batch的网络输出后,优化参数时,首先需要将loss关于weight参数梯度置零:optimizer.zero_grad() ## 梯度清零 preds = model(inputs) ## inference l
原创
2020-05-15 14:19:59 ·
820 阅读 ·
0 评论