SGD优化器:1.自适应学习率方法,如AdaGrad和Adam优化器方法
2.加速训练方式,如Nesterov momentum优化器的方法。
Lookahead优化器算法通过预先(look ahead)由另外一个优化器生成的"快速权重"序列来选择搜索方向。
蓝色实线为本来应该走的fast path的路线,紫色的线为直接到达的slow path路线,这里画出本来应该去走的路线和现在使用了lookahead优化器方法之后去走的路线。
可以看出来,常规的梯度下降优化器的优化方向为图中的红色箭头所示,而使用了lookahead之后的优化方向为图中的黑色箭头所示,可以看出使用了lookahead优化器之后,明显优化的方向离最优值点更近了,因此论文中指出,使用Lookahead优化器可以优化对应的梯度下降方向。