Homework_Week5_Coursera【Machine Learning】AndrewNg、Neural Networks: Learning

1 You are training a three layer neural network and would like to use backpropagation to compute the gradient of the cost function. In the backpropagation algorithm, one of the steps is to updateXX for every i, ji,j. Which of the following is a correct vectorization of this step?

在这里插入图片描述

答案 C

在这里插入图片描述

2 Suppose Theta1 is a 5x3 matrix, and Theta2 is a 4x6 matrix. You set thetaVec = [Theta1(😃;Theta2(😃]} Which of the following correctly recovers Theta2?

在这里插入图片描述

答案 A

在这里插入图片描述

3 What value do you get?

在这里插入图片描述
在这里插入图片描述

答案 D

4 Which of the following statements are true? Check all that apply.

在这里插入图片描述

解析

A 使用梯度下降可以验证反向传播的应用如果是没有Bug的话 正确
B 使用一个很大的lamda不会损伤神经网络的表现,不设置太大是为了避免数值问题、错误 lamda太大会变成一条直线 形成欠拟合
C梯度检查是很有用的如图过我们用梯度下降作为最优算法,然而、如果我们用别的最优化,它就不太适合我们的目标、check只是检查神经网络中参数是否正确,在所有算法都可以用、不存在到别的高级算法就效果不好的说法 错误
D如果过拟合、一个合理的步骤就是增加正则化项参数 lamda 正确 regularization的目的就是解决过拟合问题

答案 A D

在这里插入图片描述

在这里插入图片描述

5 Which of the following statements are true? Check all that apply.

解析

A 假设我有三层网络伴随着theta1和theta2 一个控制输入到隐藏单元映射的函数,另一个控制着隐藏单元到输出层的映射函数、如果我们把所有的theta1都作为0,theta2都作为1 那么对称会被打破,神经元不在计算同样的输入的函数
B 假设再用梯度下降训练神经网络,你的算法会走向局部最优,假设你用的是随机初始化、
C 如果你训练的神经网络使用了梯度下降,一个合理的debug步骤就是保证每次迭代j(theta)会减少 正确
D 如果初始化一个神经网络的参数而不是全0,就会让堆成打破因为参数不在对称于0

答案 BC

在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不会写程序的程序员.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值