神经网络DNN的反向传播

前言:在学习一段时间神经网络后,发现自己对神经网络的反向传播还是有点问题,在反过来复习吧,前向传播没有什么费劲的地方,这里就不会过多的阐述。


1、单层的反向传播

一步步来看,先看看简单的情况,单层的反向传播是理解多层神经网络的基础。

基础:梯度与梯度下降算法,前面有讲解过,这里直接给出结论。

从这上面看出,这里是以平方为误差来计算的,J(\theta )的导数为(h_{\theta }(x)-y)x,则梯度的负方向为(y-h_{\theta }(x))x。故直接带到w的方程中。

W的更新状态方程:W_{i} += W_{i}+\bigtriangledown W_{i}

 

2、多层的反向传播

3、 推导过程

这里的推导参考一个博客大牛的,由于公式较多,直接复制过来啦。

计算到输出层第L层对应的a^{L}即为前向传播算法计算出来的输出:

我们期望最小化下式:

首先是输出层第L层。注意到输出层的W,b满足下式:

求解W,bW,b的梯度:

我们可以把公共的部分即对z^{L}先算出来,记为:

根据上式我们可以很方便的计算出第L层的W^{L},b^{L}的梯度如下:

这其实和上面手写的例子结构很类似了。

假设第L+1层的\delta ^{l+1}已经求出来了,那么我们如何求出第L层的\delta ^{l}呢?我们注意到:

z^{l+1}z^{l}的关系其实很容易找出:(z^{l}就是第L层输出前进行激活函数的值)

我们得到:

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

且行且安~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值