参考:
https://www.cnblogs.com/shine-lee/p/10243114.html
https://blog.csdn.net/blogshinelee
其实我主要是为了知道分组卷积为什么会减少参数量
后来我知道了,就是分组的卷积核的参数是一样的。
分组卷积的作用:
- 减少参数量,分成GG组,则该层的参数量减少为原来的1G1G
- Group Convolution可以看成是structured sparse,每个卷积核的尺寸由C∗K∗KC∗K∗K变为CG∗K∗KCG∗K∗K,可以将其余(C−CG)∗K∗K(C−CG)∗K∗K的参数视为0,有时甚至可以在减少参数量的同时获得更好的效果(相当于正则)。
- 当分组数量等于输入map数量,输出map数量也等于输入map数量,即G=N=CG=N=C、NN个卷积核每个尺寸为1∗K∗K1∗K∗K时,Group Convolution就成了Depthwise Convolution,参见MobileNet和Xception等,参数量进一步缩减,如下图所示