神经网络学习-简记

第五章 神经网络

概述:本次组队学习主要完成了:
  1.学习了神经网络的相关基础内容;
  2.对相应的一些公式进行了推导。

5.1 神经元模型

  神经网络是由具有适应性的简单单元组成的广泛并行互连的网络。
在这里插入图片描述

图5.1 MP神经元模型

  step1.神经网络基本单元——神经元(neuron)
  step2."M-P神经元模型经元接收到来自n个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接(connection) 进行传递,神经元接收到的总输入值将与神经元的阀值进行比较,然后通过"激活函数" (activation function 处理以产生神经元的输出.
  step3.实际常用Sigmoid函数作为激活函数,典型的 Sigmoid 函数如下图所示,它把可能在较大范围内变化的输入值挤压到 (0,1) 输出值范围内,因此有时也称为 “挤压函数” (squashi function)
在这里插入图片描述

图5.2 Sigmoid-function函数

  step4.把许多个这样的神经元按一定的层次结构连接起来,就得到了神经网络。

5.2 感知机与多层网络

  感知机(Perceptron 由两层神经元组成,输入层接收外界输入信号后传递给输出层, 输出层是M-P 经元,亦称"阔值逻辑单元" (threshold logic unit).
  1. 感知机只能解决线性可分的问题,对于非线性可分的问题需要用到多层功能神经元。
  ——》多层功能神经元
在这里插入图片描述

图5.2 多层神经网络模型

  2.每层神经元与下层神经元全互连,神经元之间不存在同层连接,也不存在跨层连接 这样经网络结构通常称为"多层前馈神经网 (multi-layer feedforward neural networks)。

5.3 误差逆传播算法

  1. 多层网络的学习能力比单层感知机强得多.欲训练多层网络,简单感知机学习规则显然不够了,需要更强大的学习算法.误差逆传播(error BackPropagation ,简称 BP) 算法就是其中最杰出的代表?它是迄今最成功的神经网络学习算法.
  2. 通常说 "BP 网络"时,一般是指用 BP 算法训练的多层前馈神经网络
  3. BP是一个法代学习算法,在迭代 采用 的感知机学规则对参数进行更新估计。
  4. BP 算法基于梯度下降(gradient descent) 策略,以目标的负梯度方向对参数进行调整。
  5. 下面是BP神经网络的几个常用结论的推导过程:
在这里插入图片描述

图5.3 三层神经网络各层函数关系图

在这里插入图片描述

图5.4 推导过程01

在这里插入图片描述

图5.5 推导过程02
  以上就是学习神经网络基础知识的简记,有关详细内容请参考资料:周志华《机器学习》
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值