深度学习笔记(23):第四课第一周第二次作业

这篇博客记录了作者使用TensorFlow构建一个参考前人实践的CNN模型的过程,详细介绍了代码实现,包括创建占位符、初始化参数、前向传播、计算成本等步骤。虽然在计算成本部分遇到一些问题,但整体实现并不复杂,并且相比于全连接神经网络,模型在准确率上有提升。
摘要由CSDN通过智能技术生成

前言

在这次实验,我们使用tensorflow搭建了一个前人实践出来的CNN模型,参考了一下他们的各种超参数的设置和Conv的位置等。然后将代码实现出来。总体来说还是不难的。

TensorFlow新学习的代码条

tf.nn.conv2d(X,W1, strides = [1,s,s,1], padding = 'SAME')

给定输入 X X X和一组滤波器 W 1 W1 W1,函数将使用 W 1 W1 W1的滤波器卷积X。第三个输入([1,f,f,1])表示输入的每个维度(m, n_H_prev, n_W_prev, n_C_prev)的步幅。

tf.nn.max_pool(A, ksize = [1,f,f,1], strides = [1,s,s,1], padding = 'SAME')

给定输入A,此函数使用大小为(f,f)的窗口和大小为(s,s)的步幅在每个窗口上进行最大池化。

tf.nn.relu(Z1)

计算Z1的ReLU激活输出(可以是任何形状)。

tf.contrib.layers.flatten(P)

给定输入P,此函数将每个示例展平为一维向量,同时保持批量大小。它返回维度为[batch_size,k]的展平张量。

tf.contrib.layers.fully_connected(F, num_outputs)

给定展平的输入F,它将返回用全连接层计算出的输出。

tf.nn.softmax_cross_entropy_with_logits(logits = Z3, labels = Y)

计算softmax熵损失,该函数会计算softmax激活函数以及由此产生的损失。

tf.reduce_mean

计算张量各维度上元素的均值,用它来对所有训练示例的损失求和,以获得总损失。

代码

CreatePlaceHolders

# GRADED FUNCTION: create_placeholders

def create_placeholders(n_H0, n_W0, n_C0, n_y):
    """
    Creates the placeholders for the tensorflow session.
    
    Arguments:
    n_H0 -- scalar, height of an input image
    n_W0 -- scalar, width of an input image
    n_C0 -- scalar, number of channels of the input
    n_y -- scalar, number of classes
        
    Returns:
    X -- placeholder for the data input, of shape [None, n_H0, n_W0, n_C0] and dtype "float"
    Y -- placeholder for the input labels, of shape [None, n_y] and dtype "float"
    """

    ### START CODE HERE ### (≈2 lines)
    X = tf.placeholder(tf.float32 , shape = (None, n_H0, n_W0, n_C0))
    
    Y = tf.placeholder(tf.float32 , shape = (
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值