有关人工神经网络的学习笔记

人工神经网络学习笔记

人工神经网络

概念

人工神经网络是多输入单输出的非线性元件。
在这里插入图片描述

人工神经网络模型

人工神经网络模型包括前馈型神经网络(每一层神经元只接受前一层神经元输入)和反馈型神经网络(每个神经元接受其他神经元输出作为输入,自己输出的信号又经过其他神经元反馈回自己)。

神经网络学习

学习本质

神经网络的学习过程是连接权重根据一定规则动态调整的过程,通过修改权重适应输出。

学习方法

1.有教师学习:将输入与期望输出的数据都加载给网络,网络通过比对实际输出与期望输出的差异调整连接权重。

2.无教师学习:只将输入加载给网络,不再通过实际输出与期望输出调整权重,而是根据一定判断标准自行调整权重。

3.再励学习:A对B产生一个动作,B接受到动作后会改变状态,将这状态传回A,同时也会给A传达一个奖或惩的信号,A根据这两项选择下一个动作,下一个动作的选择标准是要收到更多奖的信号。

学习规则

1.Hebb学习规则:一个神经元从另一个神经元接受一个输入,如果两者都处于一个高度活跃的状态,两个神经元连接权重就会加强。

2.Delta学习规则:也叫widrow-hoff学习规则、最小误差规则。即以减小实际输出与应有输出之间误差的原则改变神经元之间的连接权重。

BP神经网络

概念

具有三层或三层以上的单向传播的多层前馈网络。
在这里插入图片描述

构造

BP神经网络具有拓扑结构构造。
结构要素为:输入层的单元数、隐藏层数以及每一个隐藏层单元数、输出层单元数。输入层、隐层数和隐层节点数遵循一定的设计原则。

算法基本思想

最小二乘法,使用梯度搜索技术,将权系数按二次型误差函数梯度增加的反方向进行调整,使实际输出与期望输出之间的方差最小。

需要求误差函数E(如下)对连接权重w的偏导(可以简单将E理解为我们函数常用的因变量y,w理解为函数常用的自变量x)导数即变化率,梯度是方向导数最大的量,沿着梯度可以实现最大变化,如同上下山最快的路径,梯度增加的反方向也就是梯度下降的方向,也就是使E向减小的方向变化,如同下山,而我们要做的就是尽量使误差减小,即E减小。

误差函数

在这里插入图片描述

输出层权系数调整

在这里插入图片描述

隐藏层神经元节点权系数调整

在这里插入图片描述
当j层的输出Oj与K层输出期望输出的误差E无关时,需要引入K层的输入为中间值,间接求出E对Oj的偏导,结果与前面的反传误差信号时有关的。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值