三、深层神经网络

1、L层神经网络

\qquad 将浅层神经网络的隐藏层的层数增多之后,可以得到更深层的神经网络结构。下图是一个L=4层的神经网络示意图:
在这里插入图片描述
\qquad 之前浅层网络中定义的符号,在深层网络中同样适用,如 n [ l ] n^{[l]} n[l]表示第 l l l层的神经元个数, g [ l ] g^{[l]} g[l]表示第 l l l层的激活函数, a [ l ] a^{[l]} a[l]表示第 l l l层的输出值。
\qquad 生成神经网络的前向传播通用表达式如下所示:
Z [ l ] = w [ l ] A [ l − 1 ] + b [ l ] A [ l ] = g [ l ] ( Z [ l ] ) Z^{[l]}=w^{[l]}A^{[l-1]}+b^{[l]}\\ A^{[l]}=g^{[l]}(Z^{[l]}) Z[l]=w[l]A[l1]+b[l]A[l]=g[l](Z[l]) \qquad 在检查神经网络参数的维度时,通用检查公式如下所示:
w [ l ] : ( n [ l ] , n [ l − 1 ] ) b [ l ] : ( n [ l ] , 1 ) w^{[l]}:(n^{[l]},n^{[l-1]})\\ b^{[l]}:(n^{[l]},1) w[l]:(n[l],n[l1])b[l]:(n[l],1) \qquad 在反向传播时, d w dw dw d b db db的维度分别和 w , b w,b wb的维度相同。
\qquad 在不使用向量化和使用向量化时的参数 z ( Z ) , a ( A ) z(Z),a(A) z(Z)a(A)的维度如下所示:
z [ l ] , a [ l ] : ( n [ l ] , 1 ) Z [ l ] , A [ l ] : ( n [ l ] , m ) z^{[l]},a^{[l]}:(n^{[l]},1)\\ Z^{[l]},A^{[l]}:(n^{[l]},m) z[l],a[l]:(n[l],1)Z[l],A[l]:(n[l],m) \qquad 其中m时训练样本的个数,当 l l l等于0时, n [ 0 ] n^{[0]} n[0]表示特征数量。

2、深层网络提出的原因

\qquad 深层神经网络提出的原因是,使用浅层网络神经元来识别简单信息,之后将简单信息进行组合成为,由更深层次的神经元来识别复杂信息:
在这里插入图片描述

2.1 L t h L^{th} Lth层正向/反向传播的计算过程和输入/输出参数

\qquad 在正向传播时, L t h L^{th} Lth层的输入参数为上一层的输出结果 a l − 1 a^{l-1} al1,系数 w ( l ) w^{(l)} w(l)和偏置 b ( l ) b^{(l)} b(l),输出结果首先计算 z ( l ) = w ( l ) a l − 1 + b ( l ) z^{(l)}=w^{(l)}a^{l-1}+b^{(l)} z(l)=w(l)al1+b(l),之后得到 L t h L^{th} Lth层的输出 a ( l ) = g ( l ) ( z ( l ) ) a{(l)}=g^{(l)}(z^{(l)}) a(l)=g(l)(z(l))
\qquad 在反向传播时, L t h L^{th} Lth层的输入参数为后一层计算的梯度 d a ( l ) d a^{(l)} da(l)和一个cache z ( l ) z^{(l)} z(l);输出结果为: d   a ( l − 1 ) , d   w ( l ) , d   b ( l ) d\ a^{(l-1)}, d\ w^{(l)}, d\ b^{(l)} d a(l1),d w(l),d b(l)
在这里插入图片描述
\qquad 所有神经网络层的正向和反向传播的计算过程如下图所示:
在这里插入图片描述
\qquad 反向传播的计算公式如下图所示:
在这里插入图片描述
\qquad 其中, d a l = − y a + 1 − y 1 − a da^{l}=-\frac{y}{a}+\frac{1-y}{1-a} dal=ay+1a1y

3、参数和超参数

\qquad 神经网络的参数包括: w [ 1 ] , b [ 1 ] , w [ 2 ] , b [ 2 ] , w [ 3 ] , b [ 3 ] , . . . w^{[1]}, b^{[1]}, w^{[2]}, b^{[2]},w^{[3]}, b^{[3]},... w[1],b[1],w[2],b[2],w[3],b[3],...,这些参数是通过神经网络自己进行学习的;还有一些超参数(hyper parameters),需要人为地进行设定,如学习率 α \alpha α,迭代次数 # i t e r a t i o n \#iteration #iteration,隐藏层的数量 L L L,隐藏单元的数量: n [ 1 ] , n [ 2 ] , . . . n^{[1]}, n^{[2]},... n[1],n[2],...,激活函数的选择,如 s i g m o i d ,   R e L U ,   t a n h sigmoid,\ ReLU, \ tanh sigmoid, ReLU, tanh,还有一些其他数据相关的超参数,如momentum,minibatch size,regulation terms, etc.
\qquad 涉及到这么多参数,应用深度学习是一个比较经验主义的过程,在想到一个想法之后,设计代码进行实现,之后进行试验验证,之后再进行经验参数调整,如此循环最终得到比较好的效果。
在这里插入图片描述

THE END

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Dragon Fly

多谢老板赏钱[抱拳抱拳抱拳]

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值