神经网络的前向传播和反向传播

本文深入解读了神经网络的前向传播和反向传播过程。前向传播通过权重矩阵和激活函数计算网络输出,反向传播通过四个基本方程计算代价函数关于权重和偏置的偏导数,实现权重更新。反向传播算法高效的原因在于其仅需两次前向传播的计算量即可得到所有参数的梯度,相比逐个权重求偏导的效率大大提高。
摘要由CSDN通过智能技术生成

本博客是对Michael Nielsen所著的《Neural Network and Deep Learning》第2章内容的解读,有兴趣的朋友可以直接阅读原文http://neuralnetworksanddeeplearning.com/chap2.html

前向传播过程

在讨论反向传播之前,我们讨论一下前向传播,即根据输入X来计算输出Y。输入X用矩阵表示,我们看一下如何基于矩阵X来计算网络的输出Y。

我们使用 表示从 ( - 1) 层的第 k 个神经元到  层的第 j 个神经元的链接上的权重。例如,下图给出了网络中第二层的第四个神经元到第三层的第二个神经元的链接上的权重:

我们使用表示在  层第 j 个神经元的偏置,使用表示  层第 j 个神经元的激活值(激活函数的输出)。

那么,第  层的第 j 个神经元的激活值可以表示为:

                                                         (1)

其中,为激活函数。

对每一层 ,定义一个权重矩阵,权重矩阵 的元素正是连接到  层神经元的权重,矩阵中第 j 行第 k 列的元素是 。类似的,对每一层,定义一个偏置向量,向量的每个元素为,每个元素对应于  层每个神经元的偏置。最后,我们定义激活向量,其元素是那些激活值

那么,公式(1)就可以表示为如下的向量形式:

                                                          (2)

这个表达式给出了一种更加全局的思考每层的激活值和前一层激活值的关联方式:用权重矩阵作用在激活值上,然后加上一个偏置向量,最后作用 σ 函数,则得到每层的激活值。

为了方便表示,记,表示

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值