神经网络学习笔记(五)

这篇笔记探讨了神经网络中利用链式法则求解隐层误差梯度的问题。从链式求导法则出发,详细介绍了如何计算隐层误差的偏导数和梯度,旨在简化复杂的求解过程。
摘要由CSDN通过智能技术生成

上一章我们讨论了求输出层激励的梯度和输出层预激励的梯度的方法,可以发现,求解过程极其复杂,本章将从链式法则入手,推导出各隐层的参数梯度的一般形式。

一、链式求导法则

回顾高数的知识,若一个函数可写成若干个中间结果,即 p(a)=p(q1(a),...qi(a),...,qn(a)) ,则有

p(a)a=ip(a)qi(a)qi(a)a
即所谓“连线相乘,分线相加”。
为了求隐层参数梯度,可以令:

参数 含义
a 某隐层中的某个单元
qi(a) 上一个隐层的预激励
p(a) 误差函数

这里写图片描述

如上图所示,对于第2个隐层的第 j 个单元,按照上述对应关系,我们有:

参数 此处对应的元素
a h(2)(x)j qi(a) a(3)(x)i p(a) l(f(x),y)

二、隐层误差梯度

1.隐层误差偏导

对于第 k 个隐层的第

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值