描述
常见的神经网络,如前馈神经网络,BP神经网络,自动编码器等,参数一般是权重W,偏置b以及激活函数activation function。
在具体应用一个神经网络模型前,通过tensorflow提前定义一个神经网络的添加层是很容易,也是很有必要的
源代码
#coding:utf-8
#导入tensorflow模块
import tensorflow as tf
#定义一个添加层
def add_layer(inputs,in_size,out_size,activation_function = None):
#初始化权重,一般是随机初始化
Weights = tf.Variable(tf.random_normal([in_size,out_size]))
#初始化偏置,一般会在0的基础上加0.1
biases = tf.Variable(tf.zeros([1,out_size]) + 0.1)
#计算Wx+b
feature = tf.matmul(inputs,Weights) + biases
#判断是否需要激活函数
if activation_function is None:
outputs = feature
else:
outputs = activation_function(feature)
#输出激活后的隐特征
return outputs