用TensorFlow实现神经网络常见层,代码如下:
import tensorflow as tf
import numpy as np
sess=tf.Session()
#初始化数据
data_size=25
data_1d=np.random.normal(size=data_size)
x_input_1d=tf.placeholder(dtype=tf.float32,shape=[data_size])
#定义一个卷积层函数
def conv_layer_ld(input_1d,my_filter):
input_2d=tf.expand_dims(input_1d,0)
input_3d=tf.expand_dims(input_2d,0)
input_4d=tf.expand_dims(input_3d,3)
convolution_output=tf.nn.conv2d(input_4d,filter=my_filter,strides=[1,1,1,1],padding="VALID")
return tf.squeeze(convolution_output)
#声明一个随机过滤层,即卷积核
my_filter=tf.Variable(tf.random_normal(shape=[1,5,1,1]))
#创建一个卷积层
my_convolution_output=conv_layer_ld(x_input_1d,my_filter)
#创建一个激励函数并初始化
def activation(input_1d):
return tf.sigmoid(input_1d)
my_activation_output=activation(my_convolution_output)
#声明一个池化层函数
def max_pool(input_1d,width):
input_2d=tf.expand_dims(input_1d,0)
input_3d=tf.expand_dims(input_2d,0)
input_4d=tf.expand_dims(input_3d,3)
pool_output=tf.nn.max_pool(input_4d,ksize=[1,1,width,1],strides=[1,1,1,1],padding='VALID')
return tf.squeeze(pool_output)
#创建一个池化层
my_maxpool_output=max_pool(my_activation_output,width=5)
#声明一个全联接层函数
def fully_connected(input_layer,num_outputs):
weight_shape=tf.squeeze(tf.stack([tf.shape(input_layer),[num_outputs]]))
weight=tf.random_normal(weight_shape,stddev=0.1)
bias=tf.random_normal(shape=[num_outputs])
input_layer_2d=tf.expand_dims(input_layer,0)
full_output=tf.add(tf.matmul(input_layer_2d,weight),bias)
return tf.squeeze(full_output)
#创建一个全连接层
my_full_output=fully_connected(my_maxpool_output,5)
#初始化变量
sess.run(tf.global_variables_initializer())
#输出最终结果
print(sess.run(my_full_output,feed_dict={x_input_1d:data_1d}))