adam算法效果差原因_Adam 究竟还有什么问题 —— 深度学习优化算法概览(二)

本文分析了Adam优化算法在深度学习中的局限性,包括可能的收敛问题和泛化能力不足。研究指出,Adam在训练初期的收敛速度较快,但最终泛化性能可能逊于SGD。论文提出了Adam的修正方案,如AMSGrad,以及训练策略调整,如先用Adam后切换到SGD,以提高泛化性能。文章还讨论了Adaptive方法的更新步长问题,并提出了未来研究的方向。
摘要由CSDN通过智能技术生成

勘误: 关于 outlier 部分的讨论,将 AMSGrad 误写为 SGD,现已更正。

年初,自己还是个不太上道的菜鸟时,写了一篇 从 SGD 到 Adam —— 深度学习优化算法概览(一),简单梳理了在深度学习发展历程中最为常用的几类优化算法。

我们知道,Adam 是其中综合性能出色的一种算法,自适应学习率的引入使得损失函数可以快速收敛。然而,实践证明,虽然在训练早期 Adam 拥有出色的收敛速度,使用其训练的模型的最终泛化能力却并不如使用朴素 SGD 训练的好(体现在 Adam 训练的模型最终收敛时的 test error 更大)。

相关工作

近来有若干工作针对 Adam 的这一缺陷进行探索,其中有些工作也提出了一些可供尝试的修正方案,包括但不限于:The Marginal Value of Adaptive Gradient Methods in Machine Learning. 作者给出了一个有趣的二分类问题构造,证明了在此构造下 SGD 可以收敛至最优解而 Adaptive 方法会收敛至一个泛化能力很差的结果(模型对所有输入都会始终预测为 true);并在若干个经典任务上实验证实 SGD 方法都达到了最低的 test error。

On the Convergence of Adam and Beyond. ICLR 2018 best paper。文章包含了大量理论推导,证明了在特定初始条件下 Adam 存在收敛问题,并将问题归因于更新步长不是单调下降的;作者给出了一个修正方案保证了单调性,声称可以达到更低的 training loss。

Improving Generalization Performance by Switching from Adam to SGD. 该文章指出了 Adam 最终的 test

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值