本文是对机器学习中遇到的后向传播算法进行理解,假设读者已经知道神经网络中的神经元的含义,激励函数的定义,也知道了后向传播算法那个传播公式等。本文主要是为了理解为什么后向传播算法中的 δ 是安照那个传播方式往后传播。
如上图,其中,L是神经网络的层数,a是神经元的输出, θ 是权重(参数)。
对于最后一层的神经元来说,偏差E我们可以很容易地定义:
E=12(a(L)1−y)2
所以对
θ(L−1)11
求偏导:
∂E∂θ(L−1)11=∂E∂a(L)1⋅∂a(L)1∂z(L)1⋅∂z(L)1∂θ(L−1)11
其中, z(L)1=a(L−1)1θ(L−1)11+a(L−1)2θ(L−1)12+...+a(L−1)Mθ(L−1)1M
在这里, δ(L)1=∂E∂a(L)1⋅∂a(L)1∂z(L)1
所以, ∂E∂θ(L−1)11=δ(L)1⋅∂z(L)1∂θ(L−1)11=δ(L)1⋅a(L−1)1
显然,由于我们知道了 a(L