类似于Momentum,是通过消除梯度下降过程中的摆动来加速下降的方法。
不同于Momentum类似,他是从二阶距入手的。
理论分析有空再聊,但是最后你可以得到这样的下降方式。
tensorflow
应用
optimizer = keras.optimizers.RMSprop(0.01)
0.01
是超参数,可以调整。其所在位置就是原来学习率所在的位置。
类似于Momentum,是通过消除梯度下降过程中的摆动来加速下降的方法。
不同于Momentum类似,他是从二阶距入手的。
理论分析有空再聊,但是最后你可以得到这样的下降方式。
tensorflow
应用
optimizer = keras.optimizers.RMSprop(0.01)
0.01
是超参数,可以调整。其所在位置就是原来学习率所在的位置。