人工神经网络—反向传播算法(二)

1. 回顾

在上一讲中,我们基于一个简单的神经网络,讲解了如何用后向传播算法更新神经网络的参数,完成神经网络的训练。这一讲我们将后向传播算法推广到一般的神经网络中,即我们不限制神经网络的层数以及每一层的神经元的个数来推导后向传播算法。

2. 反向传播算法的一般情形

如下图1所示,假设神经网络有 l l l层,我们不限制每一层神经元的个数,那么神经元的图可以用更简单的矩阵来表示。

在这里插入图片描述

图1 一般情形下的神经网络模型

神经网络的矩阵方式如下:

在这里插入图片描述
首先,输入 x x x,它对应着第0层的输入,我们用 a ( 0 ) a^{(0)} a(0)表示,那么第一层的输出 z ( 1 ) = w ( 1 ) a ( 0 ) + b ( 1 ) z^{(1)}=w^{(1)}a^{(0)}+b^{(1)} z(1)=w(1)a(0)+b(1),这就相当于第一层的 w , b w,b w,b作用在第0层的 a a a上,得到了第1层的 z ( 1 ) z^{(1)} z(1),接下来 a ( 1 ) = φ ( z ( 1 ) ) a^{(1)}=φ(z^{(1)}) a(1)=φ(z(1)),其中 φ φ φ是连接两层之间的非线性函数。同样的道理, z ( 2 ) = w ( 2 ) a ( 1 ) + b ( 2 ) z^{(2)}=w^{(2)}a^{(1)}+b^{(2)} z(2)=w(2)a(1)+b(2),再接下来 a ( 2 ) = φ ( z ( 2 ) ) a^{(2)}=φ(z^{(2)}) a(2)=φ(z(2)),这样一层一层的下去到第 l l l层的时候, z ( l ) = w ( l ) a ( l − 1 ) + b ( l ) z^{(l)}=w^{(l)}a^{(l-1)}+b^{(l)} z(l)=w(l)a(l1)+b(l),最后的输出 y = a ( l ) = φ ( z ( l ) ) y=a^{(l)}=φ(z^{(l)}) y=a(l)=φ(z(l))

根据上图和公式,我们作进一步说明:
(1)网络共有 l l l层;
(2) z ( k ) , a ( k ) , b ( k ) z^{(k)},a^{(k)},b^{(k)} z(k),a(k),b(k)为向量,用 z i ( k ) , a i ( k ) , b i ( k ) z_i^{(k)},a_i^{(k)},b_i^{(k)} zi(k),ai(k),bi(k)表示其第 i i i个分量;
(3)输出 y y y可以是向量,用 y i y_i yi表示其第 i i i个分量。

当然输出的 y i y_i yi也可以是一个数,那么它也可以看作一维的向量。

2.1 反向传播算法的推导

假设对于一个输入的向量 X X X,其标签为 Y Y Y,则我们设置目标函数
M i n

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值