![](https://img-blog.csdnimg.cn/20210124215409932.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
吴恩达DL测试题
文章平均质量分 90
如题
王泽的随笔
这个作者很懒,什么都没留下…
展开
-
007_wz_wed_DL_课程一第四周编程题(多层神经网络;不同层的对比;)
(n[L−1],n[L−2])(n^{[L-1]}, n^{[L-2]})(n[L−1],n[L−2]) (n[L−1],1)(n^{[L-1]}, 1)(n[L−1],1) Z[L−1]=W[L−1]A[L−2]+b[L−1]Z^{[L-1]} = W^{[L-1]} A^{[L-2]} + b^{[L-1]}Z[L−1]=W[L−1]A[L−2]+b[L−1] (n[L−1],209)(n^{[L-1]}, 209)(n[L−1],209) 第 L 层 (n[L],n[L−1])(n^{[L]}, n^原创 2021-02-08 22:43:45 · 447 阅读 · 4 评论 -
012_wz_wed_DL_课程二第三周测试题
课程二 改善深层神经网络 第三周 超参数调整,批量标准化,编程框架 第 1 题 如果在大量的超参数中搜索最佳的参数值,那么应该尝试在网格中搜索而不是使用随机值,以便更系统的搜索,而不是依靠运气,请问这句话是正确的吗? A.对 B.不对 第 2 题 每个超参数如果设置得不好,都会对训练产生巨大的负面影响,因此所有的超参数都要调整好,请问这是正确的吗? A.对 B.不对 第 3 题 在超参数搜索过程中,你尝试只照顾一个模型(使用熊猫策略)还是一起训练大量的模型(鱼子酱策略)在很大程度上取决于: A.是否使用批量原创 2021-02-24 20:29:06 · 463 阅读 · 0 评论 -
011_wz_wed_DL_课程二第二周编程题(mini_batch;Adam算法;动量梯度下降;经典梯度下降;对比;)
优化算法 一、目的 分割数据集 测试优化梯度下降算法 2.1 不使用任何优化算法 2.2 mini-batch梯度下降法 2.3 具有动量的梯度下降算法 2.4 Adam算法 二、训练集与测试集 百度网盘,提取码:1234 三、编程 在开始之前,到目前为止,我们始终都是在使用梯度下降法学习,现在我们将使用一些更加高级的优化算法,利用这些优化算法,通常可以提高我们算法的收敛速度,并在最终得到更好的分离结果。这些方法可以加快学习速度,甚至可以为成本函数提供更好的最终值,在相同的结果下,有一个好的优化算法可以原创 2021-02-22 23:13:10 · 184 阅读 · 0 评论 -
010_wz_wed_DL_课程二第二周测试题
课程二 改善深层神经网络 第二周 优化算法 第 1 题 当输入从第8个mini-batch的第7个的例子的时候,你会用哪种符号表示第3层的激活? A.a[3]{8}(7)a^{[3]\{8\}(7)}a[3]{8}(7) B.a[8]{7}(3)a^{[8]\{7\}(3)}a[8]{7}(3) C.a[8]{3}(7)a^{[8]\{3\}(7)}a[8]{3}(7) D.a[3]{7}(8)a^{[3]\{7\}(8)}a[3]{7}(8) 第 2 题 关于mini-batch的说法哪个是正确的? A.原创 2021-02-20 20:32:46 · 231 阅读 · 0 评论 -
009_wz_wed_DL_课程二第一周编程题(参数初始化;正则化;梯度校验;)
初始化、正则化、梯度校验 一、目的 初始化参数: 1.1 使用0来初始化参数; 1.2 使用随机数(高斯分布)来初始化参数; 1.3 使用抑梯度异常初始化参数(参见视频中的梯度消失和梯度爆炸),即权重初始化; 观察不同初始化的训练结果。 正则化模型: 2.1:使用二范数对二分类模型正则化,尝试避免过拟合; 2.2:使用随机删除节点(dropout)的方法精简模型,同样是为了尝试避免过拟合; 梯度校验 :对模型使用梯度校验,检测它是否在梯度下降的过程中出现误差过大的情况,确认反向传播的梯度计算正确; 二原创 2021-02-18 00:19:21 · 413 阅读 · 3 评论 -
008_wz_wed_DL_课程二第一周测试题
课程二 改善深层神经网络 第一周 深度学习的实践 第 1 题 如果你有10,000,000个例子,你会如何划分训练/开发/测试集? A.33%训练,33%开发,33%测试 B.60%训练,20%开发,20%测试 C.98%训练,1%开发,20%测试 第 2 题 开发和测试集应该: A.来自同一分布 B.来自不同分布 C.完全相同(一样的(x, y)对) D.数据数量应该相同 第 3 题 如果你的神经网络方差很高,下列哪个尝试是可能解决问题的? A.添加正则项 B.获取更多测试数据 C.增加每个隐藏层的神经元原创 2021-02-14 16:59:04 · 290 阅读 · 0 评论 -
006_wz_wed_DL_课程一第四周测试题
课程一 神经网络和深度学习 第四周 深度神经网络的核心概念 第 1 题 在我们的前向传播和后向传播实现中使用的“缓存”是什么? A.它用于在训练期间缓存成本函数的中间值。 B.我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。 C.它用于跟踪我们正在搜索的超参数,以加快计算速度。 D.我们用它将反向传播过程中计算的变量传递到相应的正向传播步骤。它包含用于计算正向传播的激活的有用值。 第 2 题 以下哪些是“超参数”?(选出所有正确项) A.隐藏层规模n[l]n^原创 2021-02-01 21:48:02 · 300 阅读 · 0 评论 -
005_wz_wed_DL_课程一第三周编程题(隐藏层;二分类;)
具有单隐藏层的二类分类神经网络 一、目的 建立一个神经网络,它有一个隐藏层,用于对特定的数据进行二分类 二、训练集与测试集 百度网盘,提取码:1234 三、编程 本次编程所需的所有模块 import numpy as np import matplotlib.pyplot as plt import sklearn import sklearn.datasets import sklearn.linear_model from testCases import * from planar_utils imp原创 2021-02-01 19:37:13 · 389 阅读 · 0 评论 -
004_wz_wed_DL_课程一第三周测试题
课程一 神经网络和深度学习 第三周 浅层神经网络 第 1 题 以下哪项是正确的?(选出所有正确项) A.a[2](12)a^{[2](12)}a[2](12)是第12层,第2个训练数据的激活向量 B.XXX是一个矩阵,其中每个列是一个训练数据 C.a4[2]a^{[2]}_4a4[2]是第2层,第4个训练数据的激活输出 D.a4[2]a^{[2]}_4a4[2]是第2层,第4个神经元的激活输出 E.a[2]a^{[2]}a[2]表示第2层的激活向量 F.a[2](12)a^{[2](12)}a[2](1原创 2021-01-31 19:45:39 · 400 阅读 · 0 评论 -
003_wz_wed_DL_课程一第二周编程题(Logistic回归;神经网络思维;)
具有神经网络思维的Logistic回归 一、目的 搭建一个能够识别猫的简单的神经网络 二、训练集与测试集 百度网盘,提取码:1234 三、编程 注:本编程未使用提供的py文件——lr_utils.py 本次编程所需的所有模块 import h5py import numpy as np import matplotlib.pyplot as plt from skimage import transform numpy :是用Python进行科学计算的基本软件包; h5py:是与H5文件中存储的数据集进行原创 2021-01-26 20:58:43 · 445 阅读 · 1 评论 -
002_wz_wed_DL_课程一第二周测试题
课程一 神经网络和深度学习 第二周 神经网络基础 第 1 题 神经元计算什么? A.神经元计算激活函数后,再计算线性函数(z=Wx+b) B.神经元计算一个线性函数(z=Wx+b),然后接一个激活函数 C.神经元计算一个函数g,它线性地缩放输入x(Wx+b) D.神经元先计算所有特征的平均值,然后将激活函数应用于输出 第 2 题 以下哪一个是逻辑回归的损失函数? A.L(i)(y^(i))=∣y(i)−y^(i)∣L^{(i)}(\hat{y}^{(i)})=|y^{(i)}-\hat{y}^{(i)}|L原创 2021-01-24 22:11:55 · 304 阅读 · 0 评论 -
001_wz_wed_DL_课程一第一周测试题
课程一 神经网络和深度学习 第一周 深度学习简介 第 1 题 “人工智能是新电力”这个比喻指的是什么? A.人工智能为我们的家庭和办公室的个人设备供电,类似于电力。 B.通过“智能电网”,人工智能正在传递新一波的电力。 C.人工智能在计算机上运行,因此由电力驱动,但它让计算机做以前不可能做的事情。 D.与100年前开始的电力类似,人工智能正在改变多个行业。 第 2 题 以下哪些是最近深度学习开始崛起的原因?(选2个答案) A.我们拥有了更多的计算能力 B.神经网络是一个崭新的领域。 C.我们有了更多的数据。原创 2021-01-24 21:51:39 · 331 阅读 · 0 评论