Neural Networks: Learning 吴恩达机器学习 第五周测试整理

在这里插入图片描述
数学不太好,做的时候有点瞎蒙,做完整理一下
先说𝛿(3),是输出层方向计算的误差项,输出层三层,所以𝛿(3) 应该是 31 。
选项是通过𝛿(3)和a(2)相乘,然后加上Δ(2) ,那么因为Δ(2)对应前一层的误差项,所以和𝛿(3)一样,也是n
1,两个向量相加,要保持维度相同,所以𝛿(3)和a(2)相乘时,a转置,𝛿不用。
在这里插入图片描述
这题比较简单,可能有一点要注意,选项B是(15:38)不对,是因为Matlab索引是从1开始

在这里插入图片描述

在这里插入图片描述
B选项:Gradient checking will still be useful with advanced optimization methods, as they depend on computing the gradient at given parameter settings. The difference is they use the gradient values in more sophisticated ways than gradient descent. 都适用
D选项:A large value of \lambdaλ can be quite detrimental. If you set it too high, then the network will be underfit to the training data and give poor predictions on both training data and new, unseen test data. 𝜆太大会拟合不足
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值