计算一个4维的输入与对应的filter即卷积核的二维卷积计算
tf.nn.conv2d(
input, filters, strides, padding, data_format='NHWC', dilations=None, name=None
)
在此工程中
outputs = tf.nn.conv2d(inputs, kernel,
[1, stride_h, stride_w, 1],
padding=padding)
input为拓展了一维的32x1024x3x1的4维tensor,kernel为初始化完毕的weight_loss,为1x3x1x64的tensor,strides为四维的方向,这里指定batch方向为1,中间1024x3的维度为设置的stride[1,1],最后一维为拓展的1维,默认为1.padding为"valid"其他参数为默认。
padding是指定的填充算法,
函数内部流程是:
1,将filter转换为2维的matrix,shape为[1x3x1,64]
2,将input的tensor提取为patches 类型的virtual tensor(目前还不知道什么意思),shape为 [batch, out_height, out_width, filter_height * filter_width * in_channels]
.
shape中有两个参数未知,out_height以及out_width.关于这两个值,由padding的设置进行计算:
"SAME" 类型的padding:
out_height = ceil(in_height / strides[1]); ceil向上取整
out_width = ceil(in_width / strides[2])
"VALID"类型的padding:
out_height = ceil((in_height - filter_height + 1) / striders[1])
out_width = ceil((in_width - filter_width + 1) / striders[2]
ceil返回比输入值大的最接近的整数,向上取整
本工程,out_height =(1024-1+1)/1=1024
out_width = (3-3+1)/2=1
3,将提取的input右乘以fileter即[32,1024,1,1*3*1]x[1*3*1,64]
最终得到output[32,1024,1,64],
具体原理为,我们的输入是32,1024,3,1的input每个batch有1024,3,1,我们卷积的核是h,1,w,3,因为要输出64channel所以有64个1,3的核,分别对每个batch的input进行卷积,h步长为1,w步长为1,因为padding是valid所以w方向只能卷积一次,因为边缘的值不插值进行计算,所以1,3卷积核按照stride[1,1]卷积input1024,3,1一次,得到1024,1的output,因为有64个1,3卷积核,所以每个batch可以得到1024,1,64的output,32个batch,所以得到32,1024,1,64的output tensor