深层神经网络
1.逻辑回归,结构如下图左边。一个隐藏层的神经网络,结构下图右边:
神经网络的层数是这么定义的:从左到右,由0开始定义,比如上边右图,x 1 、 x 2 、 x 3 、
严格上来说逻辑回归也是一个一层的神经网络,而上边右图一个深得多的模型,浅与深仅仅是指一种程度。
有一个隐藏层的神经网络,就是一个两层神经网络。记住当我们算神经网络的层数时,我们不算输入层,我们只算隐藏层和输出层。
上图是一个四层的神经网络,有三个隐藏层。我们可以看到,第一层(即左边数过去第二层,因为输入层是第0层)有5个神经元数目,第二层5个,第三层3个。
我们用L表示层数,上图: L = 4 ,输入层的索引为“0”,第一个隐藏层 表示有5个隐藏神经元,而输入层
深层网络中的前向传播
对其中一个训练样本 x xx 如何应用前向传播,之后讨论向量化的版本。
第一层需要计算 ,=
往后每层变上标即可,通过迭代可得
核对矩阵的维数
的维度是(下一层的维数,前一层的维数):(,)
b的维度是(下一层的维数,1):(,1)
dw和w的维度相同,db和b维度相同
且 w 和 b 向量化维度不变,但 z , a 以及 x 的维度会向量化后发生变化。
向量化后:可以看成由每一个单独的叠加而得到
m为训练集大小,所以的维度是(,m)