现在各种神经网络都会用到1x1 conv,它到底起到什么作用呢?要回答这个问题,先从最经典的Inception模型说起,Figure 1是Inception-ResNet-v2的block架构图。
作用一:改变矩阵维度
block中每个sublayer的第一层都1x1 conv,它在这里的作用之一是降维,减少运算量–feature map channel数越少,卷积操作需要的计算量越小。但就像图像压缩一样,压缩率越大丢帧越多,1x1 conv是如果做到在质量与速度的平衡的呢?
Figure 2中间图形就是1x1卷积核,左边的矩阵是input,