使用Tensorflow2自己实现三层神经网络的前向传输
导入所需要的包
import tensorflow as tf
导入数据集,本次采用的tensorflow提供的经典是mnist手写数据集
# x:[60k,28,28],
# y:[60k]
(x, y),_ = tf.keras.datasets.mnist.load_data()
# x:[0-255]->[0,1] y:[0-9]
# 将x,y 转换为Tensor,并且将x归一化
x = tf.convert_to_tensor(x, dtype=tf.float32)/255.
y = tf.convert_to_tensor(y, dtype=tf.int32)
print(x.shape,y.shape,x.dtype,y.dtype)
输出x,y的shape为下图,x表示60000张28*28 的图片,y对应60000个标签,范围为【0-9】
设置batch为128,即一次训练128条数据。
# 设置batch为128
train_db = tf.data.Dataset.from_tensor_slices((x,y)).batch(128)
train_iter = iter(train_db)
sample = next(train_iter)
# 一个batch的形状
print('batch:',sample[0].shape,sample[1].shape)
以下为训练所需参数和过程,本次设计为三层神经网络。输入层为28*28的图片,节点为784,第二层为256个节点,第三层为128个节点,输出层为10个节点,注释中,b为训练数据的个数(维数)。
# 创建权值
# 降维过程 [b,784]->[b,256]->[b,128]->[b,10]
# [dim_in, dim_out],[dim_out]
# 随机生成一个权重矩阵,并且初始化每一层的偏置
# 由于下文中的梯度下降法,tape默认只会跟踪tf.Variable类型的信息,所以进行转换。
w1 = tf.Variable(tf.random.truncated_normal([784,256],stddev=0.1))
b1 = tf.Variable(tf.zeros([256]))
w2 = tf.Variable(tf.random.truncated_normal([256,128],stddev=0.1))
b2 = tf.Variable(tf.zeros([128]))
w3 = tf.Variable(tf.random.truncated_normal([128,10],stddev=0.1))
b3 = tf.Variable(tf.zeros([10]))
lr = 1e-3 #0.001 10的-3次方
训练过程如下代码,设置epoch为10:
for epoch in range(10):
# enumerate处理后可以返回当前步骤的step,便于打印当前信息
print('epoch',epoch)
for step,(x,y) in enumerate(train_db):
#x :[128,28,28]
#y :[128]
x = tf.reshape(x,[-1,28*28])
with tf.GradientTape() as tape:
# x :[128,28*28]
# h1 = x@w1+b1
# [b,784]@[784*256]+[256]->[b,256]+[256]->[b,256]+[b,256]
h1 = x@w1 +tf.broadcast_to(b1,[x.shape[0],256])
h1 = tf.nn.relu(h1)
h2 = h1@w2 + b2
h2 = tf.nn.relu(h2)
out = h2@w3 + b3
# compute loss 计算误差
# out:[b,10]
y_onehot = tf.one_hot(y,depth=10)
# mse = mean(sum(y-out)^2)
loss = tf.square(y_onehot-out)
# mean: scalar
loss = tf.reduce_mean(loss)
# compute gradients
grads = tape.gradient(loss,[w1,b1,w2,b2,w3,b3])
# w1 = w1 - lr * w1_grad
w1.assign_sub(lr * grads[0]) # 保持w1原地更新,保持引用不变,类型不变
b1.assign_sub(lr * grads[1])
w2.assign_sub(lr * grads[2])
b2.assign_sub(lr * grads[3])
w3.assign_sub(lr * grads[4])
b3.assign_sub(lr * grads[5])
if step % 100 == 0:
print(step,' loss:',float(loss))
运行结果如下图: