可以使用多个小的卷积核,来代替一个大卷积核,而且更加偏向于多个小卷积组成一个网络,来代替一个大卷积核。
如处理一个5*5的图片,我们可以直接用一层5*5的卷积核来处理一次得到1*1的特征图,也可以用多层网络(小卷积)来代,用两层3*3来替代,在不考虑网络深度造成的像素融合的情况下,两者提取的特征一致。
我们如何用一个神经网络,当做一个卷积核,去卷任意大小的图片。
1. 只需要做一个卷积网络当做一个卷积核,固定输入固定输出就可以。 输出是1*1的网络就可以
2. 当我们拿多层网络充当一个大卷积核时,这个大卷积的步长等于网络内的每层小卷积步长乘起来
对于一个商业项目,如何让网络的输入实现通用化(输入任何大小都能接收)
1. resize 。 缺点明显,如果原图要监察的物体本来就很小,如果图片在缩放,那物体就可能消失检测找不到了
2. 全卷积网络。 因为,卷积输出跟输入的大小(h,w)无关系,只跟channel有关系(一般项目,可以输入图片前先把channel recover 成3通道)。 需要考虑,如何用卷积来实现特征的融合, 之前用过全连接实现融合, NV, 那么,我们可以让NCHW 编程成N C 1 1,这样就实现了特征融合。 最后,通道C就代表了V
特征图的索引是按照(w,h)计算,
特诊图到原图的反算: 特征图左上角的坐标等于特征图 索引*步长,
右下角的坐标,等于 索引*步长+卷积核大小