前言
在这次实验,我们使用tensorflow搭建了一个前人实践出来的CNN模型,参考了一下他们的各种超参数的设置和Conv的位置等。然后将代码实现出来。总体来说还是不难的。
TensorFlow新学习的代码条
tf.nn.conv2d(X,W1, strides = [1,s,s,1], padding = 'SAME')
给定输入 X X X和一组滤波器 W 1 W1 W1,函数将使用 W 1 W1 W1的滤波器卷积X。第三个输入([1,f,f,1])表示输入的每个维度(m, n_H_prev, n_W_prev, n_C_prev)的步幅。
tf.nn.max_pool(A, ksize = [1,f,f,1], strides = [1,s,s,1], padding = 'SAME')
给定输入A,此函数使用大小为(f,f)的窗口和大小为(s,s)的步幅在每个窗口上进行最大池化。
tf.nn.relu(Z1)
计算Z1的ReLU激活输出(可以是任何形状)。
tf.contrib.layers.flatten(P)
给定输入P,此函数将每个示例展平为一维向量,同时保持批量大小。它返回维度为[batch_size,k]的展平张量。
tf.contrib.layers.fully_connected(F, num_outputs)
给定展平的输入F,它将返回用全连接层计算出的输出。
tf.nn.softmax_cross_entropy_with_logits(logits = Z3, labels = Y)
计算softmax熵损失,该函数会计算softmax激活函数以及由此产生的损失。
tf.reduce_mean
计算张量各维度上元素的均值,用它来对所有训练示例的损失求和,以获得总损失。
代码
CreatePlaceHolders
# GRADED FUNCTION: create_placeholders
def create_placeholders(n_H0, n_W0, n_C0, n_y):
"""
Creates the placeholders for the tensorflow session.
Arguments:
n_H0 -- scalar, height of an input image
n_W0 -- scalar, width of an input image
n_C0 -- scalar, number of channels of the input
n_y -- scalar, number of classes
Returns:
X -- placeholder for the data input, of shape [None, n_H0, n_W0, n_C0] and dtype "float"
Y -- placeholder for the input labels, of shape [None, n_y] and dtype "float"
"""
### START CODE HERE ### (≈2 lines)
X = tf.placeholder(tf.float32 , shape = (None, n_H0, n_W0, n_C0))
Y = tf.placeholder(tf.float32 , shape = (