吴恩达机器学习第5课笔记
神经网络反向传播
吴恩达的机器学习的笔记已经很多了,本文只是记录一个一直没搞清楚的问题
在课程中计算反向传播的时候,关于输出层的误差直接就给出了
δ L = y − a L . \delta^{L}=y-a^{L}. δL=y−aL.
一直很疑惑,按照公式推算应该是
δ L = ∂ C ∂ z L = ∂ C ∂ a L ∂ a L ∂ z L = ∂ C ∂ a L σ ′ ( z L ) . \delta^L=\frac{\partial C}{\partial z^L}=\frac{\partial C}{\partial a^L}\frac{\partial a^L}{\partial z^L}=\frac{\partial C}{\partial a^L}\sigma'(z^L) . δL=∂zL∂C=∂aL∂C∂zL∂aL=