说明:资料来源于莫烦老师教程:
https://www.youtube.com/watch?v=FTR36h-LKcY&list=PLXO45tsB95cKI5AIlf5TxxFPzb-0zeVZ8&index=15
一、代码
import tensorflow as tf
def add_layer(inputs,in_size,out_size,activation_function=None):#None即没有激活函数即表示线性函数
Weights = tf.Variable(tf.random_normal([in_size,out_size]))#变量矩阵,行列分别是in_size,out_size
biases = tf.Variable(tf.zeros([1,out_size])+0.1)#不推荐biases为0,因此加上一个0.1
Wx_plus_b = tf.matrixmul(inputs,Weights) + biases #这时候,Wx_plus_b存储着没有被激活的结果
if activation_function is None:#None表示他现在是线性关系
outputs = Wx_plus_b#既然是线性关系,则没有必要加上激活函数,保持现状就ok
else:
outputs = activation_function(Wx_plus_b)
return outputs