3.12 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授


←上一篇↓↑下一篇→
3.11 TensorFlow回到目录1.1 为什么是ML策略 (第三课)

总结

习题

第 61 题

如果在大量的超参数中搜索最佳的参数值,那么应该尝试在网格中搜索而不是使用随机值,以便更系统的搜索,而不是依靠运气,请问这句话是正确的吗?

A.对 B.不对

第 62 题

每个超参数如果设置得不好,都会对训练产生巨大的负面影响,因此所有的超参数都要调整好,请问这是正确的吗?

A.对 B.不对

第 63 题

在超参数搜索过程中,你尝试只照顾一个模型(使用熊猫策略)还是一起训练大量的模型(鱼子酱策略)在很大程度上取决于:

A.是否使用批量(batch)或小批量优化(mini-batch optimization)

B.神经网络中局部最小值(鞍点)的存在性

C.在你能力范围内,你能够拥有多大的计算能力(博主注:就是高性能电脑和低性能电脑的区别)

D.需要调整的超参数的数量

第 64 题

如果您认为 β \beta β (动量超参数)介于0.9和0.99之间,那么推荐采用以下哪一种方法来对 β \beta β 值进行取样?

A.

r = np.random.rand()
beta = r * 0.09 + 0.9

B.

r = np.random.rand()
beta = 1 - 10 ** ( - r - 1 )

C.

r = np.random.rand()
beta = 1 - 10 ** ( - r + 1 )

D.

r = np.random.rand()
beta = r * 0.9 + 0.09

第 65 题

找到好的超参数的值是非常耗时的,所以通常情况下你应该在项目开始时做一次,并尝试找到非常好的超参数,这样你就不必再次重新调整它们。请问这正确吗?

A.对 B.不对

第 66 题

在视频中介绍的批量标准化中,如果将其应用于神经网络的第 l l l 层,您应该对谁进行标准化?

A. z [ l ] z^{[l]} z[l]
B. W [ l ] W^{[l]} W[l]
C. a [ l ] a^{[l]} a[l]
D. b [ l ] b^{[l]} b[l]

第 67 题

在标准化公式 z n o r m ( i ) = z ( i ) − μ σ 2 + ϵ z^{(i)}_{norm}=\frac{z^{(i)}-\mu}{\sqrt{\sigma^2+\epsilon}} znorm(i)=σ2+ϵ z(i)μ ,为什么要使用epsilon(ϵ)?

A.为了更准确地标准化

B.为了避免除零操作

C.为了加速收敛

D.防止 μ \mu μ 太小

第 68 题

批标准化中关于 γ \gamma γ β \beta β 的以下哪些陈述是正确的?

A.对于每个层,有一个全局值 γ ∈ R \gamma\in\R γR 和一个全局值 β ∈ R \beta\in\R βR ,适用于于该层中的所有隐藏单元。

B. γ \gamma γ β \beta β 是算法的超参数,我们通过随机采样进行调整

C.它们确定了给定层的线性变量 z [ l ] z^{[l]} z[l] 的均值和方差

D.最佳值是 γ = σ 2 + ϵ ,   β = μ \gamma=\sqrt{\sigma^2+\epsilon},\ \beta=\mu γ=σ2+ϵ , β=μ

E.它们可以用Adam、动量的梯度下降或RMSprop,而不仅仅是用梯度下降来学习

第 69 题

在训练了具有批标准化的神经网络之后,在用新样本评估神经网络的时候,您应该:

A.如果你在256个例子的mini-batch上实现了批标准化,那么如果你要在一个测试例子上进行评估,你应该将这个例子重复256次,这样你就可以使用和训练时大小相同的mini-batch进行预测。

B.使用最新的mini-batch的 μ \mu μ σ 2 \sigma^2 σ2 值来执行所需的标准化

C.跳过用 μ \mu μ σ 2 \sigma^2 σ2 值标准化的步骤,因为一个例子不需要标准化

D.执行所需的标准化,使用在训练期间,通过指数加权平均值得出的 μ \mu μ σ 2 \sigma^2 σ2

第 70 题

关于深度学习编程框架的这些陈述中,哪一个是正确的?(选出所有正确项)

A.即使一个项目目前是开源的,项目的良好管理有助于确保它即使在长期内仍然保持开放,而不是仅仅为了一个公司而关闭或修改。

B.通过编程框架,您可以使用比低级语言(如Python)更少的代码来编写深度学习算法。

C.深度学习编程框架的运行需要基于云的机器。

61-70题 答案

61.B 62.B 63.C 64.B 65.B 66.A 67.B 68.CE 69.D 70.AB


←上一篇↓↑下一篇→
3.11 TensorFlow回到目录1.1 为什么是ML策略 (第三课)

  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Zhao-Jichao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值