Detected call of `lr_scheduler.step()` before `optimizer.step()`.

在使用pytorch的指数衰减学习率时,出现报错UserWarning: Detected call of `lr_scheduler.step()` before `optimizer.step()`. In PyTorch 1.1.0 and later, you should call them in the opposite order: `optimizer.step()` before `lr_scheduler.step()`.  Failure to do this will result in PyTorch skipping the first value of the learning rate schedule.

原因是如报错所说,在“optimizer.step()”之前对“lr_scheduler.step()”的进行了调用,如下错误的代码所示:

        for i in range(epoch):

            net.scheduler.step()
            net.set_mode_train(True)

            for j, (x, y) in enumerate(train_loader):
                cost_pred, err = net.fit(x, y)

            net.epoch = i

所以应该把lr_scheduler.step()放在每次epoch训练完成之后:

        for i in range(epoch):

            net.set_mode_train(True)

            for j, (x, y) in enumerate(train_loader):
                cost_pred, err = net.fit(x, y)

            net.scheduler.step()
            net.epoch = i

 

### 回答1: 在 PyTorch 1.1.0 及更高版本中,用户警告检测到在执行 `optimizer.step()` 之前调用了 `lr_scheduler.step()` 。正确的顺序应该是先执行 `optimizer.step()`,再执行 `lr_scheduler.step()`。 ### 回答2: 在Pytorch 1.1.0及以上版本中,如果您使用了学习率调度器并同时使用了优化器,那么在使用学习率调度器时要注意调用顺序。出现警告“UserWarning: detected call of `lr_scheduler.step()` before `optimizer.step()`. in pytorch 1.1.0 and later, you should call them in the opposite order: `optimizer.step()` before `lr_scheduler.step()`.”时,意味着您在调用`lr_scheduler.step()`调度学习率之前先调用了`optimizer.step()`优化器的更新。这是不正确的,因为优化器需要先进行梯度的计算和参数的更新,再由学习率调度器调整学习率。 优化器是通过最小化损失函数来更新权重和偏差的算法。常用的优化器有随机梯度下降法(SGD)、Adam、Adagrad等。梯度下降算法的基本思想是沿着梯度方向,使目标函数下降到最小值。为了防止学习率过大或过小导致学习不收敛或收敛缓慢,在训练过程中需要动态地调整学习率。而学习率调度器就是用于调整学习率的工具。在Pytorch中,常用的学习率调度器有StepLR、MultiStepLR、ReduceLROnPlateau等。 正确的调用顺序是:优化器更新参数后,再由学习率调度器动态调整学习率。即在每个epoch或batch训练结束后,先执行`optimizer.step()`,然后再执行`lr_scheduler.step()`。这样,优化器能够使用更新后的参数计算梯度,学习率调度器能够根据当前训练状态动态调整学习率。反之,如果先更新学习率,再更新参数,将导致调整后的学习率无效,无法达到优化的目标。 总之,在使用Pytorch时,要注意优化器和学习率调度器的顺序,尤其是在1.1.0及以上版本中。合理地调整学习率和优化器可以提高训练模型的效果和速度。 ### 回答3: PyTorch是一个广泛使用的深度学习框架,常用来实现各种复杂的神经网络模型,包括卷积神经网络、循环神经网络及各种变体。 在PyTorch中,使用Optimizer进行梯度下降,而Learning Rate Schedule用来调整学习率。在PyTorch1.1.0及以后的版本中,有一个警告信息,提示用户在使用Optimizer和Learning Rate Schedule时的顺序问题。 具体来说,用户应该先执行optimizer.step(),再执行lr_scheduler.step()。如果使用调度程序更新学习率,就必须确保在优化器调用step()之后再执行。如果反过来,请注意警告的提示信息。 这是因为optimizer.step()用于计算梯度,更新权重,而lr_scheduler.step()用于更新学习率。如果先执行学习率更新再运行优化器,那么当更新器获得优化器输出数据时,将得到更新值而不是优化值,这个问题会导致模型无法收敛。 因此,建议在使用PyTorch编写代码时,始终按照正确的顺序进行操作,避免出现问题。当出现这种警告时,一定要及时修复错误,保证模型的训练和预测工作正常进行。
评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值