1. InceptionNeXt介绍
1.1 摘要:受 ViT 的远程建模能力的启发,大核卷积最近被广泛研究和采用,以扩大感受野并提高模型性能,例如采用 7×7 深度卷积的杰出工作 ConvNeXt。 虽然这种深度算子只消耗很少的 FLOPs,但由于内存访问成本较高,它在很大程度上损害了强大计算设备上的模型效率。 例如,ConvNeXt-T 与 ResNet-50 具有相似的 FLOP,但在 A100 GPU 上进行全精度训练时仅实现 60% 的吞吐量。 虽然减小 ConvNeXt 的内核大小可以提高速度,但会导致性能显着下降。 目前尚不清楚如何在保持性能的同时加速基于大内核的 CNN 模型。 为了解决这个问题,受 Inceptions 的启发,我们建议将大核深度卷积沿通道维度分解为四个并行分支,即小方形核、两个正交带核和恒等映射。 通过这种新的 Inception 深度卷积,我们构建了一系列网络,即 IncepitonNeXt,它不仅具有高吞吐量,而且还保持有竞争力的性能。 例如,InceptionNeXt-T 的训练吞吐量比 ConvNeX-T 高 1.6 倍,并且在 ImageNet1K 上实现了 0.2% 的 top-1 精度提升。 我们预