神经网络的表示
假设一个深度神经网络有 nl 层网络,输入为 (X,y) 那么深度神经网络可以一般表示为
y′=f(W,X,b)=fnl(Wnl,fnl−1(Wnl−1,fnl−2(...f1(W1,X,b1)...,bnl−2),bnl−1),bnl)
即前一层的输出是下一层的输入, 也就是任意一层可以看作是关于前一层输出的函数。
训练深度神经网络,也就是使 y 与
L(y,y′)=L(y,f(W,X,b))
由于 (X,y) 已知,故求解 L(y,y′) 的最小值问题又可以转化成如何调整 W 的值从而使
需要注意的是在前馈(forward)中,即求 y′ 时 y′ 是关于 X 的函数,而在BP中,是调整权值
梯度下降
对于一个函数