parser.add_argument('--optimizer', default='adam', help='adam or momentum [default: adam]')
如上面代码所示,optimizer,因为最近adam优化算法比较流行,所以优化器默认adam算法
if OPTIMIZER == 'momentum':
optimizer = tf.train.MomentumOptimizer(learning_rate, momentum=MOMENTUM)
elif OPTIMIZER == 'adam':
optimizer = tf.train.AdamOptimizer(learning_rate)
因此代码执行的是
optimizer = tf.train.AdamOptimizer(learning_rate)
指定learning_rate的adam算法的优化器具体算法可以看看李宏毅的machine learning视频,有详细讲解