4.9 总结-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授


←上一篇↓↑下一篇→
4.8 这和大脑有什么关系回到目录1.1 训练/开发/测试集 (第二课)

总结

习题

第 31 题

在我们的前向传播和后向传播实现中使用的“缓存”是什么?

A.它用于在训练期间缓存成本函数的中间值。

B.我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。

C.它用于跟踪我们正在搜索的超参数,以加快计算速度。

D.我们用它将反向传播过程中计算的变量传递到相应的正向传播步骤。它包含用于计算正向传播的激活的有用值。

第 32 题

以下哪些是“超参数”?(选出所有正确项)

A.隐藏层规模 n [ l ] n^{[l]} n[l]

B.神经网络的层数 L L L

C.激活向量 a [ l ] a^{[l]} a[l]

D.权重矩阵 W [ l ] W^{[l]} W[l]

E.学习率 α \alpha α

F.迭代次数

G.偏置向量 b [ l ] b^{[l]} b[l]

第 33 题

下列哪个说法是正确的?

A.神经网络的更深层通常比前面的层计算更复杂的特征

B.神经网络的前面的层通常比更深层计算更复杂的特性

第 34 题

向量化允许您在L层神经网络中计算前向传播时,不需要在层 l = 1 , 2 , … , L l = 1, 2, …, L l=1,2,,L 间显式的使用for循环(或任何其他显式迭代循环)

A.对 B.不对

第 35 题

假设我们将 n [ l ] n^{[l]} n[l] 的值存储在名为 l a y e r s layers layers 的数组中,如下所示: l a y e r _ d i m s = [ n x , 4 , 3 , 2 , 1 ] layer\_dims = [n_x, 4, 3, 2, 1] layer_dims=[nx,4,3,2,1] 。 因此,第1层有4个隐藏单元,第2层有3个隐藏单元,依此类推。 您可以使用哪个for循环初始化模型参数?

A.

for(i in range(1, len(layer_dims/2))):
    parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01
    parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

B.

for(i in range(1, len(layer_dims/2))):
    parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01
    parameter[‘b’ + str(i)] = np.random.randn(layers[i-1], 1) * 0.01

C.

for(i in range(1, len(layer_dims))):
    parameter[‘W’ + str(i)] = np.random.randn(layers[i-1], layers[i])) * 0.01
    parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

D.

for(i in range(1, len(layer_dims))):
    parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01
    parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

第 36 题

考虑以下神经网络:
在这里插入图片描述
该神经网络有几层?

A.层数 L L L 是4,隐藏层数是3

B.层数 L L L 是3,隐藏层数是3

C.层数 L L L 是4,隐藏层数是4

D.层数 L L L 是5,隐藏层数是4

第 37 题

在前向传播期间,在层 l l l 的前向传播函数中,您需要知道 l l l 层中的激活函数(Sigmoid,tanh,ReLU等)是什么。在反向传播期间,相应的反向传播函数也需要知道第 l l l 层的激活函数是什么,因为梯度是根据它来计算的

A.对 B.不对

第 38 题

有一些函数具有以下特性:

(i) 当使用浅网络计算时,需要一个大网络(我们通过网络中的逻辑门数量来度量大小),但是(ii)当使用深网络来计算时,我们只需要一个指数级小的网络

A.对 B.不对

第 39 题

在以下2层隐藏层的神经网络中,以下哪句话是正确的?
在这里插入图片描述
A. W [ 1 ] W^{[1]} W[1] 的形状是 (4, 4)

B. b [ 1 ] b^{[1]} b[1] 的形状是 (4, 1)

C. W [ 2 ] W^{[2]} W[2] 的形状是 (3, 4)

D. b [ 2 ] b^{[2]} b[2] 的形状是 (3, 1)

E. W [ 3 ] W^{[3]} W[3] 的形状是 (1, 1)

F. b [ 3 ] b^{[3]} b[3] 的形状是 (1, 3)

第 40 题

前面的问题使用了一个特定的网络,一般情况下,层 l l l 的权重矩阵 W [ l ] W^{[l]} W[l] 的维数是多少?

A. W [ l ] W^{[l]} W[l] 的形状是 ( n [ l ] , n [ l − 1 ] ) (n^{[l]},n^{[l-1]}) (n[l],n[l1])
B. W [ l ] W^{[l]} W[l] 的形状是 ( n [ l − 1 ] , n [ l ] ) (n^{[l-1]},n^{[l]}) (n[l1],n[l])
C. W [ l ] W^{[l]} W[l] 的形状是 ( n [ l + 1 ] , n [ l ] ) (n^{[l+1]},n^{[l]}) (n[l+1],n[l])
D. W [ l ] W^{[l]} W[l] 的形状是 ( n [ l ] , n [ l + 1 ] ) (n^{[l]},n^{[l+1]}) (n[l],n[l+1])

31-40题 答案

31.B 32.ABEF 33.A 34.B 35.D 36.A 37.A 38.A 39.ABCD 40.A


←上一篇↓↑下一篇→
4.8 这和大脑有什么关系回到目录1.1 训练/开发/测试集 (第二课)

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Zhao-Jichao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值