GradientDescentOptimizer
AdagradOptimizer
AdagradDAOptimizer
MomentumOptimizer
AdamOptimizer
FtrlOptimizer
AdagradOptimizer
AdagradDAOptimizer
MomentumOptimizer
AdamOptimizer
FtrlOptimizer
RMSPropOptimizer
主要有以上几种
用法:
tf.GradientDescentOptimizer(learning_rate)
一般在上面这个函数的后面还会加一个最小化代价函数,构成深度学习中的训练对象
tf.GradientDescentOptimizer(learning_rate).minimize(Loss)
其他的函数用法很类似,只是里面的参数有些不同