小知识点系列(十八) 本文(3万字) | 解读Pytorch优化器机制 | Optimizer | 各类优化器 | 各类学习率调整策略 |

141 篇文章 7 订阅

已下架不支持订阅


点击进入专栏:
《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程


文章目录

  • 简介与解读基本概念
    • 一、优化器
      • 1. Optimizer机制
      • 2. Optimizer基本属性
      • 3. Optimizer基本方法
      • 4. param_groups
      • 1)只训练模型的一部分参数
      • 2)不同部分的参数设置不同的学习率
    • 二、动态更新学习率
      • 1. 手动修改学习率
      • 2. torch.optim.lr_scheduler
    • 三、小结
  • SGD,RMSProp,Adam,AdamW解读
  • 各种动态学习率调整策略
    • 0 为什么引入学习率衰减?
    • 1 查看学习率
    • 2 最常用的针对全局的学习率设置
    • 3 针对不同层设置不一样的学习率
    • 4 手动设置自动衰减的学习率
    • 5 手动根据自定义列表进行学习率指定
    • 6 使用pytorch提供的学习率
      • 6.1 lr_scheduler.LambdaLR
      • 6.2 torch.optim.lr_scheduler.StepLR
      • 6.3 lr_scheduler.MultiStepLR
      • 6.4 lr_scheduler.ExponentialLR
      • 6.5 lr_scheduler.CosineAnnealingLR
      • 6.6 lr_scheduler.ReduceLROnPlateau
  • 推荐阅读:
    • 1. 机器学习
    • 2. 深度学习与目标检测
    • 3. YOLOv5
    • 4. YOLOv5改进
    • 5. YOLOv8及其改进
    • 6. Python与PyTorch
    • 7. 工具
    • 8. 小知识点
    • 9. 杂记


简介与解读基本概念

详解Optimizers


官方文档,推荐


学习率对于模型训练效果来说相当重要。

学习率过低会导致学习速度太慢,学习率过高又容易导致难以收敛。

因此,很多炼丹师都会采用动态调整学习率的方法。刚开始训练时,学习率大一点,以加快学习速度;之后逐渐减小来寻找最优解。

那么在Pytorch中,如何在训练过程里动态调整学习率呢?本文将带你深入理解优化器和学习率调整策略。

一、优化器

1. Optimizer机制

在介绍学习率调整方法之前

  • 27
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

已下架不支持订阅

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小酒馆燃着灯

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值