34_pytorch,动量与lr衰减(momentum,learning rate)--学习笔记

1.31.动量与学习率衰减
1.31.1.动量
1.31.2.学习率衰减

1.31.动量与学习率衰减

1.31.1.动量

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
(1)没有引入动量
在这里插入图片描述
(2)引入动量后
在这里插入图片描述
从图中可以看到,引入动量后loss函数更新的幅度减小,同时找到了全局最优解

(3)两种情况对比
在这里插入图片描述

(4)引入动量代码
在这里插入图片描述

1.31.2.学习率衰减

(1)三种情况下学习率对训练的影响
在这里插入图片描述

学习率过小,会使得收敛太慢,但是却可以收敛到极小值点
学习率过大,会使得目标函数甚至越来越大,或者始终在极小值点旁边徘徊,无法收敛到极小值点。但是前面收敛很快。
结合这两点我们引入了动态学习率:
(2)动态学习率
在这里插入图片描述
在前期可以设置稍微大一点的学习率如0.1, 再经过一定时间后学习率不断下降, 这样既保持了下降速度,同时又保证可以收敛到极小值点。
在这里插入图片描述
从图中可以看出,红色曲线在突变点出学习率下降成原来的一半后,loss显著降低。

(3)代码实现
实现方法一:

CLASS torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08, verbose=False)

在这里插入图片描述
在这里插入图片描述

scheduler = StepLR(optimizer, step_size=30, gamma=0.1)
for epoch in range(100):
    scheduler.step()
    train(...)
    validate(...)
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

涂作权的博客

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值