深度学习之反向传播算法

目录

神经元与感知器

神经网络

神经网络的训练


神经元与感知器

两者本质上是一致的,但感知器的激活函数是阶跃函数,神经元的激活函数往往选择Sigmoid函数或tanh函数。如下图所示:

Sigmoid函数的定义为:

其导数为:

sigmoid函数的导数可以用sigmoid函数自身来表示。这样,计算出sigmoid函数的值,计算它的导数的值就非常方便。

神经网络

神经网络其实就是按照一定规则连接起来的多个神经元。上图是一个全连接(full connected, FC)神经网络,由上图可知,它有以下特征:

  • 神经元按来布局。最左边的层叫做输入层,负责接收输入数据;最右边的层叫输出层,我们可以从这层获取神经网络输出数据。输入层和输出层之间的层叫做隐藏层,因为它们对于外部来说是不可见的。
  • 同一层的神经元之间没有连接。
  • 第N层的每个神经元和第N-1层的所有神经元相连(这就是FC的含义),第N-1层神经元的输出就是第N层神经元的输入。
  • 每个连接都有一个权值

通过矩阵的方式来表示神经网络的计算:

由图所示,隐藏层的4个节点的计算依次为:

将输入和隐藏节点的权值用向量表示:

所以:

进一步,写成矩阵的方式:

 

所以,

f是激活函数,在本例中是Sigmoid函数;\textit{\mathbf{W}}是某一层的权重矩阵;\vec{x}是某层的输入向量;\vec{a}是某层的输出向量。

上式说明神经网络的每一层的作用实际上就是先将输入向量左乘一个数组进行线性变换,得到一个新的向量,然后再对这个向量逐元素应用一个激活函数。

对于多层网络

每一层的输出向量的计算可以表示为:

神经网络的训练

反向传播算法

公式推导:

      

参考:https://www.zybuluo.com/hanbingtao/note/476663#an1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值