[深度学习基础] 反向传播:简单实例

首先以单隐藏层的MLP为例对反向传播的过程进行具体说明:
在这里插入图片描述
前向传播
1、网络输入层:训练集上的一小批数据作为输入,将其规范化为:
矩 阵 X , 以 及 对 应 的 类 标 签 向 量 y 矩阵X,以及对应的类标签向量y X,y
2、网络计算隐藏层:全连接层+ReLU
H = m a x { 0 , X W ( 1 ) } H=max{\{0,XW^{(1)}\}} H=max{0,XW(1)}
3、网络计算输出层:全连接层
H W ( 2 ) HW^{(2)} HW(2)
4、损失函数计算:交叉熵(最小化交叉熵将得到对分类器的最大似然估计)+正则项
J = J M L E + λ ( ∑ i , j ( W i , j ( 1 ) ) 2 + ( W i , j ( 2 ) ) 2 ) J=J_{MLE}+\lambda(\sum_{i,j}{(W_{i,j}^{(1)})^2+(W_{i,j}^{(2)})^2}) J=JMLE+λ(i,j(Wi,j(1))2+(Wi,j(2))2)
其中 J M L E J_{MLE} JMLE为交叉熵, λ \lambda λ为权重衰减项
其计算图如下:
在这里插入图片描述
反向传播
为了训练,我们希望计算 ∇ W ( 1 ) J \nabla_{W^{(1)}}J W(1)J ∇ W ( 2 ) J \nabla_{W^{(2)}}J W(2)J。有两种不同的路径从 J J J后退到权重:一条通过交叉熵代价,一条通过权重衰减代价。令 G G G J M L E J_{MLE} JMLE U ( 2 ) U^{(2)} U(2)的梯度。
1、通过权重衰减代价反向传播

  • W ( 2 ) W^{(2)} W(2) 2 λ W ( 2 ) 2\lambda W^{(2)} 2λW(2)
  • W ( 1 ) W^{(1)} W(1) 2 λ W ( 1 ) 2\lambda W^{(1)} 2λW(1)

其中, R ( ⋅ ) \mathbb{R} (\cdot) R()表示ReLU的反传函数,即对上一层传来的梯度中小于零的部分清零。
2、通过交叉熵代价反向传播

  • W ( 2 ) W^{(2)} W(2) H T G H^TG HTG
  • W ( 1 ) W^{(1)} W(1) X T R ( G W ( 2 ) T ) X^T\mathbb{R} (GW^{{(2)}^{T}}) XTR(GW(2)T)

3、总梯度

  • W ( 2 ) W^{(2)} W(2) 2 λ W ( 2 ) + H T G 2\lambda W^{(2)}+H^TG 2λW(2)+HTG
  • W ( 1 ) W^{(1)} W(1) 2 λ W ( 1 ) + X T R ( G W ( 2 ) T ) 2\lambda W^{(1)}+X^T\mathbb{R} (GW^{{(2)}^{T}}) 2λW(1)+XTR(GW(2)T)

在计算好上述梯度之后,梯度下降算法或者其他优化算法所做的就是利用这些梯度来更新参数。

【参考文献】
Ian Goodfellow et al , deep learning chapter 6.5.7

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值