GhostNet:More Features from Cheap Operations.
1、主要思想
深度网络处理过的特征有一部分冗余,这类特征可以通过更廉价的方式获取,不一定非要传统代价较为高昂的运算方式。也就是说,它主要针对网络Feature Map通道间存在的相似性,引入通道间的线性变换来替代原始的传统CNN运算,在减少网络参数和计算量的同时,保持Feature Map原本的通道数和不同通道间的相似性,从而不至于影响模型的表达能力。
至于引入冗余特征而不是对其进行剪枝的原因,可能是由于在对其他因素造成影响尽可能小的前提下,去优化计算量及由此带来的模型参数数量减少,这样不容易引入新的问题。从另一个角度讲,冗余信息的存在,也许能够使后续的分类、回归任务更加简单。例如有些二维空间需要通过曲线进行分割的数据,通过增加一个维度,在三维空间仅需一个平面就能轻易分割。这个类比可能不是很严谨,但是也可以作为引入冗余的信息来使分类任务更容易进行。
下图所示,左上角输入的小猫图片经ResNet-50网络的第一个residual group后得到的部分Feature Map。我们可以看到,其中红色、绿色、蓝色标出的三组Feature Map存在较大的相似性,作者认为可以利用这种相似性,在其中一些基础Feature Map的基础上,使用相比标准CNN卷积核更加简单地线性运算来得到与其相似的Feature Map。