bp神经网络_bp神经网络详解

首先,要学会它,我们要先在战略上鄙视它。

它到底是个什么东西呢。

先抽出来看看它。

我们说它的自变量是权重w,输入x后,通过一系列的操作后,一个合适的w能让输出o与真实值T相对接近。

x - f(w) - o

将o与真实值T的差距称为E。

也就是说,E为一个自变量为x的函数,随着w的变化不断变化。

2f70e0ce3532057988633e2b5798c89e.png

说到这里,你便能知道bp就是那个如何找到较优解w,使得E最小的算法。

从这里也能发现,w的寻找有时会陷入局部最优的困境,找不到全局最优解。

(其实人生也会是如此,我们从不知道当前的选择是不是全局最优)

那么bp究竟是如何找到一个合适的w呢?

88b16a0dce45fc6924d3373b6efc3075.png

这样,w就完成了更新。

那么现在的问题就是,E究竟跟w是什么样的关系,即神经网络到底是什么样的函数。

下图是一个两层的神经网络。一层隐含层,一层输出层。

这里用上标表示层数,下标表示当前层的结点标记。

5b924bc5822aebb6d5b96acf491e900b.png
其中,黄色标记代表了激活函数

858fb9275937bd7b166fb94b3e408a61.png

我们这时候就很容易发现:

efc851d7bb9250324a4a610fd26ed065.png

至此,我们已经完成了前馈神经网络的构造,也初步知道了w将由梯度算法更新。

在有了函数的轮廓后,我们来具体计算w的更新步骤。

每一层的w更新,都是由链式法则计算的,看上去就像是把误差反向传播了。

(l为当前层数,L为总层数)

54ec6e1cd68fca0cbd34662f096c02f4.png

b0f710e59dede3e1049b940467a0ca47.png

因此

838bb91c001e04f0ba916239a2eda7d7.png

总结

9c36712a59dec8fea3d24482af4367a3.png

徒手画ppt,若有帮助请点赞o( ̄▽ ̄)d

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值