目录
特征重用是轻量卷积神经网络设计的关键技术。当前的方法通常利用连接运算符通过重用其他层的特征映射来廉价地保持大通道数(从而增加网络容量)。虽然连接不需要参数和flops,但它在硬件设备上的计算成本是不可忽略的。针对这一问题,本文提出了利用结构重参数化技术实现特征重用的新思路。
提出了一种新的硬件高效的RepGhost模块,通过重新参数化来实现隐式特征重用,而不是使用连接操作符。基于RepGhost模块,我们开发了高效的RepGhost瓶颈和RepGhostNet。在ImageNet和COCO基准测试上的实验表明,在移动设备上,RepGhostNet比GhostNet和MobileNetV3更有效和高效。特别是,我们的RepGhostNet在ImageNet数据集上的Top-1精度比GhostNet高2.5%,参数更少,在基于arm的手机上的延迟也相当。代码可从https://github.com/ChengpengChen/RepGhost获得。