1.4 padding
在深度学习中,需要学会的一个基本卷积操作就是padding,padding是什么意思呢?
之前未使用padding时,假设我们的图片是6*6的,在使用3*3的filter之后,图片变为4*4的,发现了什么?图片使用卷积操作之后变小了,这还只是使用一次,如果我们在深层网络中需要使用多次呢?可想而知,图片就会变得越来越小,甚至会缩小到1*1,我们当然不希望在识别边缘或其他特征时图片变得越来越小。
除此之外,这样直接使用卷积运算还有一个问题,那就是图片边缘角落的像素信息使用次数较少,这容易使我们损失掉很多处在角落位置的像素带来的信息,怎么说呢?如上图所示,我们本来是6*6的矩阵,左上角即(1,1)位置的格子,那个绿色的格子,在使用3*3的filter进行卷积运算时,我们仅使用一次,这样我们就容易损失掉这一部分包含的信息。
为了解决卷积运算带来的这两种缺点,padding思想被提出。什么是padding呢?padding就是在原图像周围再加上p圈像素,p在这里是参数,像素值我们一般取0。这样一来既不怕图像通过卷积运算变得越来越小,也不怕图像原本边缘处的信息利用不到了。
原来未加像素前,6*6的图片通过3*3的filter我们可以得到4*4的图片,这是有公式的,假设原图像是n*n,filter是f*f