AdamW优化器简单理解

1.SGD

L2 regularization 和 Weight decay 只在SGD优化的情况下是等价的。
在这里插入图片描述

2.自适应学习率算法

Adam自动调整学习率,大幅提高了训练速度,也很少需要调整学习率,但是有相当多的资料报告Adam优化的最终精度略低于SGD。

问题出在哪呢,其实Adam本身没有问题,问题在于目前大多数DL框架都是在优化器之前加上L2正则项来替代weight decay。
在这里插入图片描述

3. Adam vs AdamW

在这里插入图片描述
在这里插入图片描述

4. 图示分析

在这里插入图片描述

  • 横纵坐标分别是不同的weight decay和learning rate的组合;
  • 上方可以看到, 原始的实现方法, 最优化区域很小, 而且learning rate和weight decay有极大的相关性, 也就是说固定一个去调整另一个, 马上就会结果变差;
  • 而下边作者提出的实现方法, 最优化区域明显增大, 固定一个去调整另一个, 才会真正的实现结果优化, 找到最优的参数组合.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值