Tensorflow2.0实现添加神经网络层def add_layer
定义一层神经网络,方便之后网络的搭建。
activatioin_function是激活函数(激励函数),通过非线性的函数嵌套,提高模型的拟合能力,常用的有relu、tanh、sigmoid等。
import tensorflow._api.v2.compat.v1 as tf
tf.disable_v2_behavior()
def add_layer(inputs,in_size,out_size,activatioin_function=None):
Weights = tf.Variable(tf.random_normal([in_size,out_size])) #normal distribution是正态分布随机数
biases = tf.Variable(tf.zeros([1,out_size]) + 0.1) #建议biases不为0,所以加上0.1
Wx_plus_b = tf.matmul(inputs,Weights) + biases
#inputs的大小是1*in_size,Weight的大小是in_size*out_size,相乘后大小是1*out_size的行向量
if activatioin_function is None:
outputs = Wx_plus_b
else:
outputs = activatioin_function(Wx_plus_b)
return outputs