通过设置学习率,既可以加快训练初期的训练速度,同时在训练后期又不会出现损失函数在极小值周围徘徊往返的情况。
#学习率设为1
import tensorflow as tf
training_steps=10
learning_rate=1
x=tf.Variable(tf.constant(5,dtype=tf.float32),name='x')
y=tf.square(x)
train_op=tf.train.GradientDescentOptimizer(learning_rate).minimize(y)
with tf.Session() as sess:
init_op=tf.global_variables_initializer()
sess.run(init_op)
for i in range(training_steps):
sess.run(train_op)