前言
Deep L-layer neural network
shallow 与 Deep 是相对的。
一般对某些问题进行分类,可以先从逻辑回归(最简单的单个神经元),逐步增加网络层数,并把层数做为一个超参数,使用交叉验证来判定多少层的网络适合我们的分类问题。
符号申明:
- W[l]是用来计算Z[l]的参数,W[l]∗A[l−1]+b[l]=Z[l] W [ l ] 是 用 来 计 算 Z [ l ] 的 参 数 , W [ l ] ∗ A [ l − 1 ] + b [ l ] = Z [ l ]
- n[l]表示第l层的神经元个数,n[0]是输入层特征的个数 n [ l ] 表 示 第 l 层 的 神 经 元 个 数 , n [ 0 ] 是 输 入 层 特 征 的 个 数
- a[l]表示第l层输出的激活值,a[0]=x是输入层的x1,x2...xnx。a[L]是输出层 a [ l ] 表 示 第 l 层 输 出 的 激 活 值 , a [ 0 ] = x 是 输 入 层 的 x 1 , x 2 . . . x n x 。 a [ L ] 是 输 出 层
Forward Propagation in a Deep Network
在上图这样一个3×5×5×3×1的5层网络中,Forward propagation的vecteration表达如下:
第0层是输入层,L=4层,第L层是输出层。
n[0]=nx=3,n