BP神经网络的反向求导

该博客详细阐述了BP神经网络的反向求导过程,主要针对单隐层神经网络。通过前向传播和反向传导的介绍,解释了如何利用梯度下降法更新权重和偏置,以最小化cost function J(w,b)。文中强调理解单样本的反向传导,并给出δ的递推公式,为求解权重和偏置的偏导数提供方法。" 111579369,10294948,LoadRunner的Socket脚本编写指南,"['性能测试', 'Socket编程', 'LoadRunner工具', '脚本开发']
摘要由CSDN通过智能技术生成

BP神经网络

本文章主要是记录BP神经网络的反向求导的具体过程,主要参考是UFLDL Tutoial
中文版教程请戳此

神经网络

经典的神经网络是由多个感知器(神经元)构成的全连接的网络,本质上来说,这样的连接只是简单的线性加权和而已,所以每个神经元加上同一个非线性函数(如sigmoid,tanh等),使得网络能拟合非线性,其中这个非线性函数成为激活函数。

符号描述

为简便叙述,本文中的神经网络都是最简单的三层神经网络(即单隐层)。

前向传播

a(l)=f(z(l))

z(l)=w(l1)a(l1)+b(l1)

反向传导

假设BPNN的cost function为

J(w,b)=1mi=1mJ(w,b;x(i),y(i)):J(w,b;x(i),y(i))=12(y(i)hw,b(x(i)))2
为便于公式推导的理解,此处不加上正则项(并非必需)。

此处我们是要找到最佳的w,b使得 J(w,b) 即cost function的值最小,因此 J 是关于 w,b 的函数,其中 w,b 也不是标量,是很多 wij,bi 的集合。这里要强调的是:我们的cost function中没有显式的看到 w,b 的表达式,那是因为用简单的 hw,b(x(i) 替换了,所以一定要牢记 J 的展开表达式(假设能展开)中只有 w,b 才是变量,其他都是已知的。强调这点是因为下面推导的时候很容易迷失在各种符号中而忘了这最本质的概念。

因为 J(w,b)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值