Dilation 卷积,也被称为:空洞卷积、膨胀卷积。
一、一般的卷积操作:
首先,可以通过动态图,理解正常卷积的过程:
如上图,可以看到卷积操作。
对于CNN结构,通常包括如下部分:
输入层 (input layer)--- 卷积计算层 (CONV)--- 激励层(RELU) --- 池化层(Pooling) --- 全连接层(FC)
通常利用卷积来实现数据的特征提取。卷积层还有一个权值共享的原则:用一句话表达就是每个神经元只关注一个特征。
当然卷积完经过激励层做一个非线性映射,输出后就到Pooling layer了。
池化层的作用:
(1)压缩数据和参数的量,减小过拟合。
(2)增大感受野。
主要两种方法:Max Pooling 和 Average Pooling
对于有些算法,池化完还需要upsampling获得原始数的尺寸进行后续操作。由于这种通过卷积操作存在内部数据丢失的问题,存在信息损失,有人提出了dilated conv算法,即不通过池化获