先看看卷积,数字只是说明位置方便,不是具体数值,这里是valid卷积 ,stride=1
由CNN基础我们知道 17 这个点是由前面1 2 5 6 和卷积核运算得到的,那么反卷积就是要从17 反推1,2,5,6 ,这是一个无穷解问题,反卷积目的就是找到一个合适的卷积核使5这个点尽可能映射回去 。
看下图,我们给这个结果补上一圈0 ,做卷积运算,可以发现计算等号右边1,2,5,6 这个4个点的值都需要 17 这个点。
重新捋一捋卷积时1 2 5 6 得到的17,理论上反卷积计算1,2,3,4应该都需要17参与运算,发现正确(用下图自己试着运算一下)
再看一个2,3,6,7 得到18,再看反卷积,18这个点参与2,3,6,7 的计算,所有的都是这样,所以就是这样计算的。
可以用tensorflow 检查一下,是不是正确。
x1 = tf.constant(1.0, shape=[1,3,3,1])
kernel = tf.constant(1.0, shape=[2,2,1,1])
y3 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,4,4,1],
strides=[1,1,1,1],padding="VALID")
with tf.Session() as sess:
print('x1\n', sess.run(x1).reshape(3,3))
print('kernel\n', sess.run(kernel).reshape(2,2))
ret = sess.run(y3)
print('deconv shape ',ret.shape)
print(ret.reshape(4,4))
输出结果为
接下来看一下如果stride = 2呢
这里我们发现1,2,5,6 计算得到17, 3,4,7,8 计算得到18,如果和刚才一样肯定不行,维度也不对,我们可以尝试这样补零(空的地方是补零)
这样1,2,5,6计算得到的17,反过来计算1,2,5,6的值的时候正好需要17
代码测试
x1 = tf.constant(1.0, shape=[1,2,2,1])
kernel = tf.constant(1.0, shape=[2,2,1,1])
y3 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,4,4,1],
strides=[1,2,2,1],padding="VALID")
with tf.Session() as sess:
print('x1\n', sess.run(x1).reshape(2,2))
print('kernel\n', sess.run(kernel).reshape(2,2))
ret = sess.run(y3)
print('deconv shape ',ret.shape)
print(ret.reshape(4,4))
SAME卷积核valid卷积一样,就是结果取裁剪左上角,直接放程序
x1 = tf.constant(1.0, shape=[1,4,4,1])
kernel = tf.constant(1.0, shape=[2,2,1,1])
y3 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,4,4,1],
strides=[1,1,1,1],padding="SAME")
with tf.Session() as sess:
print('x1\n', sess.run(x1).reshape(4,4))
print('kernel\n', sess.run(kernel).reshape(2,2))
ret = sess.run(y3)
print('deconv shape ',ret.shape)
print(ret.reshape(4,4))