【机器学习】神经网络各层反向传播中的损失计算

神经网络反向传播中各层损失计算

(一个随意的笔记)

在看吴恩达的神经网络时看不懂表达式啥意思,于是自己推算了一遍。背景是这样的,一个l层神经网络,正向传播如下图示例所示:
在这里插入图片描述
那么当计算出a(4)后,会与真实值y有一个偏差,神经网络就是根据这个偏差来反向传播,更新各层参数,进而完成模型训练的。在更新参数时需要知道各层的损失分别是多少,这怎么计算呢?结论如下:
在这里插入图片描述
然而但从表达式看来意义并不那么明确,于是推演一遍计算过程(认为损失 δ \delta δ(i)可以直接用偏导数表示):
在这里插入图片描述
在这里插入图片描述

不难发现,第l层的损失并不是简简单单直观认为的a(l)-y,实际上与我们计算出来第l层的 δ \delta δ(l)的表达式不谋而合,这实际上是由于损失函数J( θ \theta θ)的巧妙设定造成的效果。

而计算出每一层的损失 δ \delta δ(i)以后,就能利用反向传播算法更新参数了。我们前面计算了关于z(i)的偏导作为 δ \delta δ(i),而事实上参数是 θ \theta θ,因此需要进一步处理。
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值