Optimizer
- tf.train.GradientDescentOptimizer
- tf.train.AdadeltaOptimizer
- tf.train. AdagradOptimizer
- tf.train.AdagradDAOptimizer
- tf.train.MomentumOptimizer
- tf.train.AdamOptimizer
- tf.train.FtrlOptimizer
- tf.train.ProximalGradientDescentOptimizer
- tf.train.ProximalAdagradOptimizer
- tf.train.RMSPropOptimizer
梯度下降优化器对比
- 标准梯度下降法:先计算所有样本汇总误差,然后根据总误差来更新权值
- 随机梯度下降法:随机抽取一个样本来计算误差,然后更新权值,可能会学习到比较多的噪声
- 批量梯度下降法:是一种折中方案,从总样本中选取一个批次(比如一个有10000个样本,随机选取100个样本作为一个batch),然后计算这个batch的总误差,根据这个总误差来更新权值