优化器
文章平均质量分 56
向上的阿鹏
..
展开
-
torch.optim.lr_scheduler--学习率调整总结
参考链接:https://blog.csdn.net/qyhaill/article/details/103043637调用例子:import torchimport torch.nn as nnfrom torch.optim.lr_scheduler import LambdaLRinitial_lr = 5class model(nn.Module): def __init__(self): super().__init__() self.con原创 2022-01-21 21:34:49 · 5484 阅读 · 0 评论 -
手动调整学习率
for param_group in optimizer.param_groups:param_group[‘lr’] = lr原创 2021-12-10 10:15:52 · 289 阅读 · 0 评论 -
optim优化器的使用
**pytorch中优化器可以使用的最简版本为:**for input, target in dataset: optimizer.zero_grad() output = model(input) loss = loss_fn(output, target) loss.backward() optimizer.step()构建优化器:为单个参数进行优化时:例子:optimizer = optim.SGD(model.parameters(), lr原创 2021-05-26 14:13:52 · 2120 阅读 · 0 评论