文章目录
持续更新
深度学习第一课第二周
第18题
# a.shape = (3,4)
# b.shape = (4,1)
for i in range(3):
for j in range(4):
c[i][j] = a[i][j] + b[j]
如何将其矢量化?
A.c = a + d
B.c = a +b.T
C.c = a.T + b.T
D.c = a.T + b
答案:B
第19题(有点疑问)
请考虑以下代码段:
a = np.random.randn(3, 3)
b = np.random.randn(3, 1)
c = a * b
c的维度是什么?
A.这会触发广播机制,b会被复制3次变成(3*3),而 * 操作是元素乘法,所以c.shape = (3, 3)
B.这会触发广播机制,b会被复制3次变成(3*3),而 * 操作是矩阵乘法,所以c.shape = (3, 3)
C.这个操作将一个3x3矩阵乘以一个3x1的向量,所以c.shape = (3, 1)
D.这个操作会报错,因为你不能用*对这两个矩阵进行操作,你应该用np.dot(a, b)
答案:A
深度学习第一课第三周
第30题
考虑以下1个隐层的神经网络:
Z[1] 和 A[1]的维度是多少?
答:Z[1] 和 A[1] 的维度都是 (4,m)
【注意】这里的Z和A都是大写,代表的是m个样本数据,如果是小写就是(4,1)
深度学习第一课第四周
第32题
32、以下是“超参数”
隐藏层的大小n[l]
学习率α
迭代次数
神经网络中的层数L
深度学习第二课第一周
第41题
如果你有10,000,000个例子,你会如何划分训练/开发/测试集?
A.33%训练,33%开发,33%测试
B.60%训练,20%开发,20%测试
C.98%训练,1%开发,1%测试
答案:【C】
第43题
如果你的神经网络方差很高,下列哪个尝试是可能解决问题的?
A.添加正则项
B.获取更多测试数据
C.增加每个隐藏层的神经元数量
D.用更深的神经网络
E.用更多的训练数据
答案:【AE】
第47题
在测试时候使用dropout:
A.不要随机关闭神经元,但保留1/keep_brob因子
B.随机关闭神经元,保留1/keep_brob因子
C.随机关闭神经元,但不保留1/keep_brob因子
D.不要随机关闭神经元,也不要保留1/keep_brob因子
答案:【D】
第49题
以下哪些技术可用于减少方差(减少过拟合)?(选出所有正确项)
A.梯度消失
B.数据扩充
C.Dropout
D.梯度检查
E.Xavier初始化
F.L2正则化
G.梯度爆炸
答案:【BCF】
深度学习第二课第三周
第 64 题
如果您认为(动量超参数)介于0.9和0.99之间,那么推荐采用以下哪一种方法来对值进行取样?
A.
r = np.random.rand()
beta = r * 0.09 + 0.9
B.
r = np.random.rand()
beta = 1 - 10 ** ( - r - 1 )
C.
r = np.random.rand()
beta = 1 - 10 ** ( - r + 1 )
D.
r = np.random.rand()
beta = r * 0.9 + 0.09
答案:【B】