目录
1.算法概述
回顾一阶与二阶优化技术后,针对前者进行展开,涉及的主要是一阶梯度法;常见的一阶梯度法包括 SGD、Momentum、Nesterov、AdaGrad、RMSProp、Adam等等。 其中SGD、Momentum、Nesterov是手动指定学习率的,而 AdaGrad、RMSProp、Adam 能够自动调节学习率。
这些算法又可以称之为 Stochastic Optimization(随机优化),优化的过程中引入了物理学的概念“动量”,通过一阶动量与二阶动量的刻画来更新学习率进而寻找到最优点;此处提及的优化算法都遵循一定的优化算法框架,针对其中的“动量”环节不断迭代和提升。
2.仿真效果
matlab2022a仿真结果如下: