Adam优化器是目前应用最多的优化器。
optimizer--adam_小笨熊~~走向程序猿的~~历程~~专栏-CSDN博客blog.csdn.net在训练的过程中我们有时会让学习率随着训练过程自动修改,以便加快训练,提高模型性能。关于adam优化器的具体实现过程可以参考这篇博客,或者更简洁一点的这篇博客,这里只对adam优化器中的参数进行介绍。
Adam in Keras
在Keras的Adam优化器中各参数如下:
keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)
lr
: 学习率beta_1
: 0到1之间,一般接近于1beta_2
: 0到1之间,一般接近于1,和beta_1
一样,使用默认的