pytorch 查看当前学习率_pytorch学习(十三)—学习率调整策略

学习率

学习速率(learning rate)是指导我们该如何通过损失函数的梯度调整网络权重的超参数。学习率越低,损失函数的变化速度就越慢。虽然使用低学习率可以确保我们不会错过任何局部极小值,但也意味着我们将花费更长的时间来进行收敛,特别是在被困在高原区域的情况下。

new_weight = existing_weight — learning_rate * gradient

a20d5a7ed6f3

image.png

图1采用较小的学习率,梯度下降的速度慢;

图2采用较大的学习率,梯度下降太快越过了最小值点,导致不收敛,甚至震荡。

a20d5a7ed6f3

image.png

目的

了解pytorch中学习率调整的方法

测试环境

windows 10

Ananconda 3, python3.7

pytorch 1.0

pycharm

实验/测试

pytorch中相关的API

关于学习率调整,pytorch提供了torch.optim.lr_scheduler

a20d5a7ed6f3

image.png

主要提供了几个类:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch 中,可以通过访问优化器对象(optimizer object)来查看当前学习率。优化器对象通常在训练循环中使用,用于更新模型参数。以下是一个查看当前学习率的示例代码: ```python import torch.optim as optim # 定义一个模型和一个优化器 model = MyModel() optimizer = optim.Adam(model.parameters(), lr=0.001) # 查看当前学习率 print(optimizer.param_groups[0]['lr']) ``` 在上面的示例代码中,`optimizer.param_groups` 是一个列表,其中的每个元素都代表一个参数组,包含了该参数组对应的学习率等信息。由于我们只有一个参数组,因此我们可以通过访问 `optimizer.param_groups[0]` 来获取该参数组的信息,然后通过 `'lr'` 键来获取当前学习率。 要调整模型训练的学习率,可以通过修改优化器对象中的学习率来实现。以下是一个调整学习率的示例代码: ```python import torch.optim as optim # 定义一个模型和一个优化器 model = MyModel() optimizer = optim.Adam(model.parameters(), lr=0.001) # 调整学习率 new_lr = 0.0001 for param_group in optimizer.param_groups: param_group['lr'] = new_lr ``` 在上面的示例代码中,我们首先定义了一个模型和一个优化器,并将学习率设置为 0.001。然后,我们通过遍历优化器对象中的参数组,并修改 `'lr'` 键来将学习率调整为 0.0001。需要注意的是,由于优化器对象中可能包含多个参数组,因此我们需要遍历所有的参数组才能将学习率调整到我们希望的值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值