tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)
input的shape应为(n_batch,height,width,n_channels),filter的shape应为(height,width,n_channels,n_filter)
注意:input与filter的通道数应该相同。
在使用tf.Variable定义变量时,input = tf.Variable(tf.random_normal([1,3,3,5]))表示1张3x3的5通道图像矩阵
filter = tf.Variable(tf.random_normal([1,1,5,1]))可以与之进行卷积。
Q:filter.shape是(1,1,5,1)通道为1,为何能进行卷积?
猜想:tf.nn.con2d在将filter传入参数时,作为filter的矩阵shape含义就不再是(n_batch,height,width,n_channels)
注意上图中kernel的括号,其实是2个2行1列2通道的矩阵,猜想:3维矩阵乘法需要如此设置shape。即filter的第三维(列数)应该与input的第四维(通道 数) 相等
结论:矩阵作为输入图像与作为卷积核时其shape的四个维度的解释是不同的,同一组数字,两种解释。