Deep Learning学习笔记(二)——BP反向传播算法及其在CNN中的计算

这里主要牵扯的问题是如何利用Cost Function来更新所有参数权值的问题。

误差反向传播算法利用高等数学里面的复合函数求导的思想,可以分别把每一层的线性项作为一组自变量,则前一层的误差敏感项(Cost Function对于这个线性项的偏导)就可以是由所有与其有连接的下一层的误差传播项乘以他们之间的权值,再乘上激励函数的导数。具体推导过程就不放了(我才不会说是因为我还没学Latex)。

以上所说的是对于所有神经网络通用的BP算法的说明,此处因为个人学习方向,针对CNN中的卷积层和池化层的传播进行说明。

CNN卷积神经网络推导和实现
CNN的反向求导及练习

大致意思有三个方面。

首先是池化层的误差传递,如果是max pooling则误差全部传递到取到最大值的那个输入;如果是average pooling则平均传递给所有输入。

其次是如何从后一层的误差敏感项得到前一层的。假设l层的一幅图像由两个卷积核得到两个l+1层的输出,那么,l层的误差敏感值应该分别由那两个输出的误差敏感值传递过来相加。将l+1层的误差敏感矩阵进行适当的padding(填0),然后用旋转过180度的卷积核进行卷积,得到和输入尺寸一样的矩阵,即为输入层的误差敏感值。

至于对于卷积层的权值的偏导,则将输入矩阵用输出误差敏感值进行卷积即可得到,然后便可像之前所说一样进行更新。

然而具体的推导嘛。。。我回头再试试,坑不保证填上。

CNN的介绍如果不出意外在下一篇博客中就会出现,挖坑。。。
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值