神经网络中的BP算法原理

        BP(Back-propagation)算法广泛应用于神经网络的模型训练中,基本思想是将误差逐层反传,从而更新各个参数。本文重点探讨BP算法的基本原理和公式推导。

       方便起见,以3层DNN为例,网络结构如下图。具体来说,第1层是输入层,用x1, x2, ……, xn表示,第2层是隐藏层,用h1, h2, ……, hp表示,第3层是输出层,用y1, y2, ……, ym表示,输入层和隐藏层之间的权重参数用W(1)表示,隐藏层和输出层之间的权重参数用W(2)表示,节点的激活函数用f表示。


1. 前向计算,根据输入依次计算各个节点的输出

(1)计算隐藏层的输入和输出:


(2)计算输出层的输入和输出:


(3)计算损失函数:


2. 误差反传,根据损失函数计算各个节点的梯度

(1)计算损失函数对输出层的输入的梯度


如果激活函数采用sigmoid函数,则


于是上面的梯度可以写成


(2)计算损失函数对隐藏层和输出层参数的梯度


(3)计算损失函数对输入层和隐藏层参数的梯度


3. 更新参数

得到梯度之后,采用梯度下降算法更新参数,如下



4. 一点思考

观察W(2)的梯度公式,发现


同样形式在W(1)的梯度公式中也出现了两次,随着网络层数的增加,接近输入层的节点参数梯度中包含改形式的次数也将逐层增加,导致梯度越来越小,即梯度消失问题。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值