006_wz_wed_DL_课程一第四周测试题

课程一 神经网络和深度学习

第四周 深度神经网络的核心概念

第 1 题

在我们的前向传播和后向传播实现中使用的“缓存”是什么?

A.它用于在训练期间缓存成本函数的中间值。

B.我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。

C.它用于跟踪我们正在搜索的超参数,以加快计算速度。

D.我们用它将反向传播过程中计算的变量传递到相应的正向传播步骤。它包含用于计算正向传播的激活的有用值。

第 2 题

以下哪些是“超参数”?(选出所有正确项)

A.隐藏层规模 n [ l ] n^{[l]} n[l]
B.神经网络的层数 L L L
C.激活向量 a [ l ] a^{[l]} a[l]
D.权重矩阵 W [ l ] W^{[l]} W[l]
E.学习率 α \alpha α
F.迭代次数
G.偏置向量 b [ l ] b^{[l]} b[l]

第 3 题

下列哪个说法是正确的?

A.神经网络的更深层通常比前面的层计算更复杂的特征

B.神经网络的前面的层通常比更深层计算更复杂的特性

第 4 题

向量化允许您在L层神经网络中计算前向传播时,不需要在层l = 1, 2, …, L间显式的使用for循环(或任何其他显式迭代循环)

A.对
B.不对

第 5 题

假设我们将的值存储在名为layers的数组中,如下所示:layer_dims = [n_x, 4, 3, 2, 1]。 因此,第1层有4个隐藏单元,第2层有3个隐藏单元,依此类推。 您可以使用哪个for循环初始化模型参数?

A.

for(i in range(1, len(layer_dims/2))):  
    parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01  
    parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

B.

for(i in range(1, len(layer_dims/2))):  
    parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01  
    parameter[‘b’ + str(i)] = np.random.randn(layers[i-1], 1) * 0.01

C.

for(i in range(1, len(layer_dims))):  
    parameter[‘W’ + str(i)] = np.random.randn(layers[i-1], layers[i])) * 0.01  
    parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

D.

for(i in range(1, len(layer_dims))):  
    parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01  
    parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

第 6 题

考虑以下神经网络:
在这里插入图片描述

该神经网络有几层?

A.层数 L L L是4,隐藏层数是3

B.层数 L L L是3,隐藏层数是3

C.层数 L L L是4,隐藏层数是4

D.层数 L L L是5,隐藏层数是4

第 7 题

在前向传播期间,在层的前向传播函数中,您需要知道层中的激活函数(Sigmoid,tanh,ReLU等)是什么。在反向传播期间,相应的反向传播函数也需要知道第层的激活函数是什么,因为梯度是根据它来计算的

A.对
B.不对

第 8 题

有一些函数具有以下特性:

(i) 当使用浅网络计算时,需要一个大网络(我们通过网络中的逻辑门数量来度量大小),但是(ii)当使用深网络来计算时,我们只需要一个指数级小的网络

A.对
B.不对

第 9 题

在以下2层隐藏层的神经网络中,以下哪句话是正确的?
Image Name
A. W [ 1 ] W^{[1]} W[1]的形状是 (4, 4)

B. b [ 1 ] b^{[1]} b[1]的形状是 (4, 1)

C. W [ 2 ] W^{[2]} W[2]的形状是 (3, 4)

D. b [ 2 ] b^{[2]} b[2]的形状是 (3, 1)

E. b [ 3 ] b^{[3]} b[3]的形状是 (1, 1)

F. W [ 3 ] W^{[3]} W[3]的形状是 (1, 3)

第 10 题

前面的问题使用了一个特定的网络,一般情况下,层的权重矩阵的维数是多少?

A. W [ l ] W^{[l]} W[l]的形状是 ( n [ l ] , n [ l − 1 ] ) (n^{[l]},n^{[l-1]}) (n[l],n[l1])
B. W [ l ] W^{[l]} W[l]的形状是 ( n [ l − 1 ] , n [ l ] ) (n^{[l-1]},n^{[l]}) (n[l1],n[l])
C. W [ l ] W^{[l]} W[l]的形状是 ( n [ l + 1 ] , n [ l ] ) (n^{[l+1]},n^{[l]}) (n[l+1],n[l])
D. W [ l ] W^{[l]} W[l]的形状是 ( n [ l ] , n [ l + 1 ] ) (n^{[l]},n^{[l+1]}) (n[l],n[l+1])

1-10题 答案

1.B 2.ABEF 3.A 34.B 5.D 6.A 7.A 8.A 9.ABCDEF 10.A

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值