先看一下官方API文档
control_dependencies是用于控制计算流图的先后顺序的。必需先完成control_input的计算,才能执行之后定义的context。
但是,tensorflow是顺序执行的,为什么还需control_dependecies呢?原因在实际训练中,大多是以一个BATCH_SIZE大小来训练。因此需循环地去刷新前面所定义的变量。而采用control_dependencies可以确保control_input在被刷新之后,在执行定义的内容,从而保证计算顺序的正确性。
例:
train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss,global_step=global_step)
with tf.control_dependencies([train_step,variable_averages_op]):
train_op = tf.no_op(name='train')
saver = tf.train.Saver()
with tf.Session() as sess:
tf.initialize_all_variables().run()
for i in range(TRAINING_STEPS):
xs,ys = mnist.train.next_batch(BATCH_SIZE)
_,loss_value,step = sess.run([train_op,loss,global_step],feed_dict={x:xs,y_:ys})
该例中,用保证每次执行sess.run之前,train_step均被均新过。
with tf.control_dependencies([train_step]):