吴恩达深度学习总结(4)

深层神经网络

对于deaplearning而言,隐藏层的数目越多,表明神经网络越深。logistic regression是没有隐藏层的。

神经网络每一层参数的维度

神经网络共有 L L L 层, n [ l ] n^{[l]} n[l] 表示每一层节点的个数,用 n [ 0 ] n^{[0]} n[0] 表示输入数据的维度,那么 W [ l ] W^{[l]} W[l] 的维度为 ( n [ l ] , n [ l − 1 ] ) (n^{[l]}, n^{[l-1]}) (n[l],n[l1]) b [ l ] b^{[l]} b[l] 的维度为 ( n [ l ] , 1 ) (n^{[l]},1) (n[l],1) d W [ l ] dW^{[l]} dW[l] 的维度与 W [ l ] W^{[l]} W[l] 一致, d b [ l ] db^{[l]} db[l] 的维度与 b [ l ] b^{[l]} b[l] 一致。
Z [ l ] Z^{[l]} Z[l] A [ l ] A^{[l]} A[l] 的维度一致,均为 ( n [ l ] , 1 ) (n^{[l]}, 1) (n[l],1),若输入为 m m m 个,那么 Z [ l ] Z^{[l]} Z[l] A [ l ] A^{[l]} A[l] ( n [ l ] , m ) (n^{[l]}, m) (n[l],m)。loss function的维度为 ( 1 , 1 ) (1, 1) (1,1)

为什么要使用深层神经网络

  1. 深层神经网络中,层数越靠后的隐藏层一个节点所包含的信息越多,可以更好的提取信息。
  2. 对比浅层神经网络, 使用深层神经网络可以减少计算function的数目。
  3. 深层神经网络可以完成浅层神经网络不能完成的任务。

Parameters 和 Hyper parameter

简单的来说神经网络本身的权重称为parameter,可以控制神经网络权重变化的参数称为hyper parameter。
parameter: W W W b b b
hyper parameter: learning rate,#iterations, #hidden layers L

由于这周内容基本上是上周内容的延伸,所以总结比较少

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值