BP神经网络模型与学习算法

本文介绍了BP神经网络模型及其误差反向传播(BP)学习算法。BP算法通过输出误差反向估计各层神经元的误差,适用于解决线性不可分问题。BP网络采用S型函数作为激活函数,其学习过程基于梯度下降法,尽管存在收敛速度慢和可能陷入局部极小的缺点,但仍是多层神经网络训练的有效方法。
摘要由CSDN通过智能技术生成

在感知器神经网络模型与线性神经网络模型学习算法中,理想输出与实际输出之差被用来估计神经元连接权值误差。当解决线性不可分问题而引入多级网络后,如何估计网络隐含层神经元的误差就成了一大难题。因为在实际中,无法知道隐含层的任何神经元的理想输出值。1985年Rumelhart、McClelland提出了BP网络的误差反向后传(BP)学习算法,实现了Minsky设想的多层神经网络模型。

BP算法在于利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。使用BP算法进行学习的多级肺循环网络称为BP网络,属于前向神经网络类型。虽然这种误差估计本身的精度会随着误差本身“向后传播”而不断降低,但它还是给多层网络的训练提供了比较有效的办法,加之多层前向神经网络能逼近任意非线性函数。

BP神经网络模型

构成BP网络的神经元仍然是神经元。按照BP算法的要求,这些神经元所用的激活函数必须处处可导。一般都使用S型函数。对一个神经元来说,它的网络输入可以表示为:

net=xω

其中 x 表示该神经元所接受的输入, ω 表示神经元对应的连接权值。

该神经元的输出为:

y=f(net)=11+enet

进一步地,我们可以求y关于net的导数:

f(net)=enet(1+enet)2=1+enet1(1+enet)2=11+enet1(1+enet)2=y(1y)

显然地 我们可以注意到

limnet+11+e
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值