Pytorch学习笔记(二)——优化器的使用

Pytorch学习笔记——优化器的使用

如何建立优化器

torch中优化器在torch.optim中实现。从库中导入对应的优化器即可,此处需要注意的是,如果模型是在cuda上运行的,则优化器需要在模型移动到GPU上后再建立。
建立优化器的方式如下:

optimizer = torch.optim.SGD(model.parameters(), lr=0.01, momentum=0.9)
optimizer = torch.optim.Adam([var1, var2], lr=0.0001)
一些特殊用法

当需要对模型的不同地方用不同的学习率训练时,给优化器传入的不再是模型的参数,而是传入一个可迭代对象(列表)。该列表中的元素为字典,字典必须包含一个一个params的键,对应的值为模型的一部分参数,其他的键值则应该匹配该优化器可以接受的参数,例如:

optim.SGD([
                {'params': model.base.parameters()},
                {'params': model.classifier.parameters(), 'lr': 1e-3}
            ], lr=1e-2, momentum=0.9)
用法

所有的优化器都实现了.step()方法,调用该方法将会更新参数。该方法有两种用法,在此介绍最为常用的一种用法:optimizer.step()
这是大多数优化器均支持的一个简化版本,当计算梯度后,可调用该方法。例如:

for input, target in dataset:
    optimizer.zero_grad() # 梯度清零
    output = model(input)
    loss = loss_fn(output, target)
    loss.backward() # 反向传播
    optimizer.step()
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值