深度学习-CNN中池化层和卷积层的反向传播

参考文献:
1、 https://www.zhihu.com/question/58716267
2、 https://www.cnblogs.com/pinard/p/6494810.html
3、 https://blog.csdn.net/qq_21190081/article/details/72871704
4、 http://jermmy.xyz/2017/12/16/2017-12-16-cnn-back-propagation/
参考学习上面四篇博客,此篇总计记录学习!!

一、Relu函数的导数计算

先从最简单的开始,Relu激活在高等数学上的定义为连续(局部)不可微的函数,它的公式为:
在这里插入图片描述
其在x=0处是不可微的,但是在深度学习框架的代码中为了解决这个直接将其在x=0处的导数置为1,所以它的导数也就变为了
在这里插入图片描述

二、Pooling池化操作的反向梯度传播

CNN网络中另外一个不可导的环节就是Pooling池化操作,因为Pooling操作使得feature map的尺寸变化,假如做2×2的池化,假设那么第l+1层的feature map有16个梯度,那么第l层就会有64个梯度,这使得梯度无法对位的进行传播下去。其实解决这个问题的思想也很简单,就是把1个像素的梯度传递给4个像素,但是需要保证传递的loss(或者梯度)总和不变。根据这条原则,mean pooling和max pooling的反向传播也是不同的。
1、mean pooling
mean pooling的前向传播就是把一个patch中的值求取平均来做pooling,那么反向传播的过程也就是把某个元素的梯度等分为n份分配给前一层,这样就保证池化前后的梯度(残差)之和保持不变,还是比较理解的,图示如下
在这里插入图片描述
mean pooling比较容易让人理解错的地方就是会简单的认为直接把梯度复制N遍之后直接反向传播回去,但是这样会造成loss之和变为原来的N倍,网络是会产生梯度爆炸的。

2、max pooling
max pooling也要满足梯度之和不变的原则,max pooling的前向传播是把patch中最大的值传递给后一层,而其他像素的值直接被舍弃掉。那么反向传播也就是把梯度直接传给前一层某一个像素,而其他像素不接受梯度,也就是为0。所以max pooling操作和mean pooling操作不同点在于需要记录下池化操作时到底哪个像素的值是最大,也就是max id。

源码中有一个max_idx_的变量,这个变量就是记录最大值所在位置的,因为在反向传播中要用到,那么假设前向传播和反向传播的过程就如下图所示
在这里插入图片描述

三、卷积层的梯度计算

1、基本卷积层的推导(stride=1,无padding)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
具体参看:参考文献2和4

2、扩展,讨论stride和padding

  • Stride=2
    在这里插入图片描述
  • Padding说明:
    在这里插入图片描述
  • 7
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
神经网络(Convolutional Neural Network,CNN)是一种广泛应用于图像识别和计算机视觉任务的深度学习算法。其基本原理如下: 1. 卷层(Convolutional Layer):卷层是CNN的核心组成部分。它通过使用一组可学习的滤波器(也称为卷核)对输入图像进行卷操作,提取图像的局部特征。卷操作可以有效地捕捉到图像的空间关系,例如边缘、纹理等。 2. 激活函数(Activation Function):在卷层之后,通常会应用一个非线性激活函数,如ReLU(Rectified Linear Unit),来引入非线性变换。激活函数的作用是增加网络的表达能力,使其能够学习更加复杂的特征。 3. 池化层(Pooling Layer):池化层用于减小特征图的尺寸,并保留最重要的特征。常用的池化操作包括最大池化和平均池化。池化操作可以减少参数数量,降低计算复杂度,并且具有一定的平移不变性。 4. 全连接层(Fully Connected Layer):在经过多个卷层和池化层之后,通常会将特征图展平,并连接到一个或多个全连接层。全连接层的作用是将高级特征与输出进行关联,进行最终的分类或回归。 5. 损失函数(Loss Function):CNN的训练过程需要定义一个损失函数来衡量预测结果与真实标签之间的差异。常见的损失函数包括交叉熵损失函数、均方误差损失函数等。 6. 反向传播(Backpropagation):CNN通过反向传播算法来更新网络的参数,使得损失函数最小化。反向传播通过计算梯度来确定参数的调整方向,并使用优化算法(如梯度下降)来更新参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值