1x1的卷积能做什么呢?
所谓信道压缩,Network in Network是怎么做到的?
对于如下的二维矩阵,做卷积,相当于直接乘以2,貌似看上去没什么意义。
但是,对于下面这种32通道的数据,如果我用1个1x1x32的卷积核与其做卷积运算,得到的就是1个6x6的矩阵。
在这个过程中,发生了如下的事情:
(1)遍历36个单元格(6x6)
(2)计算左图中32个信道中截面与卷积核中32个元素的乘积
(3)此时得到的结果,仍然是6x6x32的矩阵
(4)每个6x6的矩阵都叠加起来,得到一个6x6的矩阵
(5)接下来用Relu函数作用于这个6x6的矩阵
(6)得到6x6的输出
同理,如果我用N个1x1x32的卷积核与其做卷积运算,得到的就是N个6x6的矩阵。
所以,1x1的卷积,可以从根本上理解为:有一个全连接的神经网络,作用在了不同的32个位置上。
这种做法,通常称为1x1卷积或Network in Network。它的主要作用,就是降低信道数量。如下图<
一维卷积、二维卷积
最新推荐文章于 2024-07-23 12:46:17 发布
本文探讨了一维卷积和二维卷积,尤其是1x1卷积的作用。1x1卷积通过全连接神经网络的形式,用于信道压缩和降低计算复杂度。在不同位置应用1x1卷积,可以实现Network in Network的效果,改变信道数量。同时,文章解释了`tf.nn.conv2d`函数实现卷积的具体参数和计算过程。
摘要由CSDN通过智能技术生成