神经网络和深度学习第四周检测

答案见下方


1.在实现前向传播和反向传播中使用的“cache”是什么?

A. 用于在训练期间缓存成本函数的中间值。
B. 我们用它传递前向传播中计算的变量到相应的反向传播步骤,它包含用于计算导数的反向传播的有用值。
C. 它用于跟踪我们正在搜索的超参数,以加速计算。
D. 我们使用它将向后传播计算的变量传递给相应的正向传播步骤,它包含用于计算计算激活的正向传播的有用值。

2.以下哪些是“超参数”?

A. 隐藏层的大小n^ [l]
B. 学习率α
C. 迭代次数
D. 神经网络中的层数L

3.下列哪个说法是正确的?

A. 神经网络的更深层通常比前面的层计算更复杂的输入特征。
B. 神经网络的前面的层通常比更深层计算输入的更复杂的特性。

4.向量化允许您在L层神经网络中计算前向传播,而不需要在层(l = 1,2,…,L)上显式的使用for-loop(或任何其他显式迭代循环),正确吗?

A. 正确
B. 错误

5. 假设我们将n^ [l]的值存储在名为layers的数组中,如下所示:layer_dims = [n_x,4,3,2,1]。 因此,第1层有四个隐藏单元,第2层有三个隐藏单元,依此类推。 您可以使用哪个for循环初始化模型参数?

答:

6.下面关于神经网络的说法正确的是:

A. 层数L为4,隐藏层数为3

7.在前向传播期间,在层l的前向传播函数中,您需要知道层l中的激活函数(Sigmoid,tanh,ReLU等)是什么, 在反向传播期间,相应的反向传播函数也需要知道第l层的激活函数是什么,因为梯度是根据它来计算的,正确吗?

A. 正确
B. 错误

8.有一些功能具有以下属性:(i) 使用浅网络电路计算函数时,需要一个大网络(我们通过网络中的逻辑门数量来度量大小),但是(ii)使用深网络电路来计算它,只需要一个指数较小的网络。真/假?

A. 正确
B. 错误

9.前面的问题使用了一个特定的网络,与层l有关的权重矩阵在一般情况下,W^ [l]的维数是多少?

答:


答案:

  1. B

  2. ABCD

  3. A

  4. B

  5. for(i in range(1, len(layer_dims))):
        parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01
        parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
    
  6. A

  7. A(在反向传播期间,您需要知道正向传播中使用哪种激活函数才能计算正确的导数。)

  8. A

  9. w^ [l]的维度是(n^ [l],n^ [l-1])

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值