深度学习优化器 optimizer 的选择__转自雷锋网
详情参见:https://www.tensorflow.org/api_guides/python/train
在 keras 中也有 SGD,RMSprop,Adagrad,Adadelta,Adam 等,详情:
https://keras.io/optimizers/
我们可以发现除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什
转载
2017-12-05 18:55:31 ·
360 阅读 ·
0 评论