(582条消息) 如何理解卷积神经网络CNN的卷积核是四维向量_四维卷积核_HUST_zxs的博客-CSDN博客
参考链接附
问题:不理解为甚二维要变成四维
实际上,不论卷积再怎么变,基础也是二维的卷积,视频当中举出的例子,二维的输入,channel为1,灰度图像的channel为1,相应的RGB就为3,那么batchsiaze对应什么呢?这里可以理解为进行了多少次卷积,就可以得到多少个channel的输出图像。
具体的四维输入为(m,f,p,q)
m---batch-size
f--特征图个数(channel)
p,q--对应特征图的宽和高