一直是跟着cousera上吴恩达的课学下来的,目前到一课程第四周,还没做第四周作业。
除了明显为个人手写并用手机拍摄,以下提供的图片都来自吴恩达老师课件的截图
献上关键理解图一张
一个隐藏层的神经网络
与逻辑回归单元的区别
逻辑回归单元可以看成是只有一个节点的层,而一个隐藏层的神经网络则是有一个多节点的层和有一个节点的层一同构成的。
1.在逻辑回归单元中 w w w的形状是 ( 1 , n ) (1,n) (1,n),而当要输出多个节点时,其形状应该时 ( k , n ) (k,n) (k,n)
2.而要增加层数只能多加几个 w w w、 b b b,这在后面构建多个隐藏层的神经网络中涉及到。
向前传播公式:
Z [ 1 ] = W [ 1 ] T ∗ X + b [ 1 ] Z^{[1]}=W^{[1]T}*X+b^{[1]} Z[1]=W[1]T∗X+b[1] A [ 1 ] = σ ( Z [ 1 ] ) A^{[1]}=\sigma(Z^{[1]}) A[1]=σ(Z[1]) Z [ 2 ] = W [ 2 ] T ∗ A [ 1 ] + b [ 2 ] Z^{[2]}=W^{[2]T}*A^{[1]}+b^{[2]} Z[2]=W[2]T∗A[1]+b[2] A [ 2 ] = σ ( Z [ 2 ] ) A^{[2]}=\sigma(Z^{[2]}) A[2]=σ(Z[2])
上标方括号对应相应层数,例如 Z [ 1 ] Z^{[1]} Z[1]表示第一个隐藏层的Z。注意x那一层为第零层,也可以说x那一层不在层数计算范围内。
公式中的考虑:
1.此时 W [ 1 ] W^{[1]} W[1]应是 ( n , k ) (n,k) (n,k)维度ÿ