点击进入专栏:
《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程
文章目录
- 简介与解读基本概念
-
- 一、优化器
-
- 1. Optimizer机制
- 2. Optimizer基本属性
- 3. Optimizer基本方法
- 4. param_groups
- 1)只训练模型的一部分参数
- 2)不同部分的参数设置不同的学习率
- 二、动态更新学习率
-
- 1. 手动修改学习率
- 2. torch.optim.lr_scheduler
- 三、小结
- SGD,RMSProp,Adam,AdamW解读
- 各种动态学习率调整策略
-
- 0 为什么引入学习率衰减?
- 1 查看学习率
- 2 最常用的针对全局的学习率设置
- 3 针对不同层设置不一样的学习率
- 4 手动设置自动衰减的学习率
- 5 手动根据自定义列表进行学习率指定
- 6 使用pytorch提供的学习率
-
- 6.1 lr_scheduler.LambdaLR
- 6.2 torch.optim.lr_scheduler.StepLR
- 6.3 lr_scheduler.MultiStepLR
- 6.4 lr_scheduler.ExponentialLR
- 6.5 lr_scheduler.CosineAnnealingLR
- 6.6 lr_scheduler.ReduceLROnPlateau
- 推荐阅读:
-
- 1. 机器学习
- 2. 深度学习与目标检测
- 3. YOLOv5
- 4. YOLOv5改进
- 5. YOLOv8及其改进
- 6. Python与PyTorch
- 7. 工具
- 8. 小知识点
- 9. 杂记
简介与解读基本概念
学习率对于模型训练效果来说相当重要。
学习率过低会导致学习速度太慢,学习率过高又容易导致难以收敛。
因此,很多炼丹师都会采用动态调整学习率的方法。刚开始训练时,学习率大一点,以加快学习速度;之后逐渐减小来寻找最优解。
那么在Pytorch中,如何在训练过程里动态调整学习率呢?本文将带你深入理解优化器和学习率调整策略。
一、优化器
1. Optimizer机制
在介绍学习率调整方法之前