在卷积神经网络中,我一直没有注意到一个细节:在网络中间,对于特征图进行卷积是如何计算的呢?
在 tflearn中,以下代码便可表示第二次卷积操作
conv_2d(convnet, 128, 2, activation='elu', weights_init="Xavier")
可以看到的是参数中只指定了卷积核数量128和大小2*2,对于需要第一次卷积得到的64个feature map进行卷积,所以其实这里的128个卷积核都有64channel,每个卷积核对64个feature map 对应位置进行卷积计算相加,就得到了一个新的具有128个channel的 feature map。
卷积核的channel数应该和输入的channel数相同,有多少个卷积核,输出的channel数就是多少(每个卷积核分别作用于输入产生一个channel)。