Backpropagation

本文介绍了以反向传播(backpropagation)算法为基础的多层神经网络,下面的例子是三层的神经网络,其中两个输入,一个输出.
这里写图片描述
每一个神经元(neuron)由两个单元(unit)构成.第一个单元增加了产出的权重(weights)系数和输入信号.第二个单元实现了非线性函数,我们称之为神经元激活(neuron activation)函数.信号e是增加的输出信号,y=f(e)是非线性元素的输出信号.y也是神经元的输出信号.
这里写图片描述
为了让神经网络学习,我们需要来训练数据集.训练集包含了两个输入信号(x1和x2)以相对应的目标z.神经网络训练是一个迭代的过程,每次迭代权重系数都会改进.

ForwardPropagation

第一层神经网络:
这里写图片描述
第二层神经网络:
这里写图片描述
这里写图片描述
第三层神经网络
这里写图片描述

BackPropagation

接下来输出信号y会与目标值相比较,他们两个的差叫做误差信号 δ
这里写图片描述
我们不可能直接计算出误差信号的,很多年科学家都没有解决这个问题,直到18世纪中叶.这个问题的解决方式是反方向传播误差信号 δ
这里写图片描述
这里写图片描述
权重系数 wmn 和上述的向前传播过程的权重系数是相同的
这里写图片描述
这里写图片描述
这里写图片描述
当所有的神经元的误差信号都被计算出来,所有神经元正向输入的权重系数将被修正. df(e)/de 代表了神经元激活函数的派生
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
系数 η 影响了神经网络的学习速度.有一些技巧来选择这个参数.
1. 选择比较大的值.当权重系数确定之后, η 将会逐渐的减少.
2. 选择比较小的值.在学习的过程中 η 会先变变大,再变小.
参考文献:
http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html
http://blog.sina.com.cn/s/blog_8e5ce7190102ws0h.html
http://blog.csdn.net/u013007900/article/details/50118945
http://www.doc88.com/p-9405764412826.html
数学公式整理:
http://blog.csdn.net/zdk930519/article/details/54137476
http://www.tuicool.com/articles/mEzqeaM

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值