![4f83fa8ec948a69e86384e94a87c9047.png](https://i-blog.csdnimg.cn/blog_migrate/83ae12a50c42416c0d0b7106608f0fa7.jpeg)
1. 前向传播算法
所谓的前向传播算法就是:将上一层的输出作为下一层的输入,并计算下一层的输出,一直到运算到输出层为止。
![05746ccf8d11679ce083c161c2d4407d.png](https://i-blog.csdnimg.cn/blog_migrate/5effa83eb4b2192b041750b30287f6fc.jpeg)
对于Layer 2的输出
对于Layer 3的输出
从上面可以看出,使用代数法一个个的表示输出比较复杂,而如果使用矩阵法则比较的简洁。将上面的例子一般化,并写成矩阵乘法的形式,
其中
这个表示方法就很简洁、很漂亮,后面我们的讨论都会基于上面的这个矩阵法表示来。所以,应该牢牢记住我们符号的含义,否则在后面推导反向传播公式时会比较懵。
2. 反向传播算法(BP算法)
反向传播(back propagation, BP)算法是 "误差反向传播" 的简称,也称为backprop,允许来自代价函数的信息通过网络向后流动,以便计算梯度。
反向传播是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。
反向传播这个术语经常被误解为用于多层神经网络的整个学习算法。实际上,反向传播仅指用于计算梯度的方法。而另一种算法,例如随机梯度下降法,才是使用该梯度来进行学习。另外,反向传播还经常被误解为仅适用于多层神经网络,但是原则上它可以计算任何函数的到导数(对于一些函数,正确的响应是报告函数的导数是未定义的)。
简单介绍一下链式法则:
微积分中的链式法则(为了不与概率中的链式法则相混淆)用于计复合函数的导数。反向传播是一种计算链式法则的算法,使用高效的特定运输顺序。
设
推导BP算法 ( get一下重点内容 )
在进行反向传播算法前,我们需要选择一个损失函数,来度量训练样本计算出的输出和真实的训练样本输出之间的损失。我们使用最常见的均方误差(MSE)来作为损失函数,
![81bace212eab7e5791c9c1cdda2845f3.png](https://i-blog.csdnimg.cn/blog_migrate/4b1795ce956249bb3cc417abcfa264cb.png)
其中
(1) 输出层的梯度
![d0d7547d0d336e6cbd0fdcf8b2a5b0b1.png](https://i-blog.csdnimg.cn/blog_migrate/71bba68438e16fcc317f313b5dc3776d.png)
其中
我们注意到在求解输出层梯度的时候有公共的部分,记为
![731c63e1b8250c4029dc38172874c70a.png](https://i-blog.csdnimg.cn/blog_migrate/562bf29a35db27b2ed6b2989ed6e8d36.png)
(2) 隐藏层的梯度
我们把输出层
因为上面已经求出了输出层的误差,根据误差反向传播的原理,当前层的误差可理解为上一层所有神经元误差的复合函数,即使用上一层的误差来表示当前层误差,并依次递推。
这里我们用数学归纳法,假设第
![1a08662683993325128abdcd1c55c238.png](https://i-blog.csdnimg.cn/blog_migrate/3eb65f4a7456428fed327b74b8f7b8df.png)
而
这样很容易求出,
![a03ef2b89516337aa3c5577f5cd60694.png](https://i-blog.csdnimg.cn/blog_migrate/cfab1b6a56cb1b610f7dbcf6cad5a8ad.png)
所以,
![e7fe0b21d6ea29577e649546c15c0ee2.png](https://i-blog.csdnimg.cn/blog_migrate/04297c389dfe15a080e739ce7e336b1d.png)
现在我们得到了
![e8e89f810c752337afd8d5dc92ed4363.png](https://i-blog.csdnimg.cn/blog_migrate/7546391a9770eebd5092d57a4b15193c.png)
对反向传播算法的过程进行一下总结:
输入:总层数L,以及各隐藏层与输出层的神经元个数,激活函数,损失函数,迭代步长
1. 初始化参数W,b
2. 进行前向传播算法计算,for
3. 通过损失函数计算输出层的梯度
4. 进行反向传播算法计算,for
![e7fe0b21d6ea29577e649546c15c0ee2.png](https://i-blog.csdnimg.cn/blog_migrate/04297c389dfe15a080e739ce7e336b1d.png)
5. 更新W,b
通过梯度下降算法更新权重
![b856add3f9dae53df35dd95d86e028af.png](https://i-blog.csdnimg.cn/blog_migrate/709f0fd34769347e68000f2b596b3531.png)
6. 如果所有W,b的变化值都小于停止迭代阈值ϵ,则跳出迭代循环
7. 输出各隐藏层与输出层的线性关系系数矩阵W和偏置b。