前向传播与反向传播回顾
神经网络的训练过程可以简化成以下步骤,
输入预处理(feature scaling等)
初始化网络weight和bias
前向传播,得到网络输出
计算损失函数,得到当前损失
反向传播,根据链式法则,逐层回传得到损失函数对当前参数的偏导,根据梯度下降算法对当前参数进行更新
重复步骤3 4 5,直到损失不再减小,即收敛
一个简单的前向传播和反向传播的示意图如下,线性组合和非线性激活交替进行,线性组合层可以为全连接层或卷积层等,图片来自链接,
梯度下降算法的参数更新公式为,