Tensorflow学习实战之全连接层和模型保存读取
全连接层构建
构建了一个三层的神经网络,会发现重复工作太多,隐藏层的构建很相似,所以建立一个连接层,来代替重复的构建
#全连接层
def fac_layer(inputs,#输入数据
input_dim,#输入神经元数量
output_dim,#输出神经元数量
activation=None):#是否激活
#截断正态分布随机取值
w=tf.Variable(tf.truncated_normal([input_dim,output_dim],stddev=0.1))
b=tf.Variable(tf.zeros([output_dim]))
#叉乘加偏置
x_w_b=tf.matmul(inputs,w)+b
if activation is None:
outputs=x_w_b
else:
outputs=activation(x_w_b