这几天写tensorflow的时候发现随着迭代的次数越来越多,tensorflow跑的速度越来越慢。查找才发现是tensorflow不断的给之前的图里加节点,导致占用的内存越来越大,然后我尝试了网上的各种方法,终于发现了一个靠谱的方法,先放上代码
tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")
# 第一层
layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
# 第二层
layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
# 输出层
weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
finish_output = tf.matmul(layer_2,