本文探讨了CNN模型压缩的重要工作,包括SqueezeNet的FireModule设计,通过1x1和3x3卷积减少参数量,以及MobileNet提出的Depth-wise Separate Convolution,利用分组卷积和1x1卷积实现高效轻量化。这些方法在保持模型性能的同时显著降低了计算复杂度。
本文主要总结近年来CNN的模型压缩方案在2016年SqueezeNet这篇文章中,作者总结模型设计三个原则–(1)使用1*1网络代替3*3网络•替换3x3的卷积kernel为1x1的卷积kernel可以让参数缩小9X为了不影响识别精度,并不是全部替换,而是一部分用3x3,一部分用1x1•如何用1x1和3x3组合替换3x3? Fire modules–(2)减