关注公众号,发现CV技术之美
▊ 写在前面
卷积层是深度神经网络的基本组成部分之一,目前的卷积网络的一个基本假设是卷积核应该为数据集中的所有样本所共享 。在本文中,作者打破了这个假设,提出了条件参数化卷积(CondConv) ,它为每个样本学习专门的卷积核。用CondConv替换普通卷积能够增加网络的大小和容量,同时保持有效的推理。
通过实验,作者证明了CondConv网络在分类和检测任务上,改善了现有几种卷积神经网络结构的性能和推理成本的权衡。在ImageNet分类任务上,将EfficientNet-B0中的卷积替换为CondConv,可以在 413M multiply-adds的计算量下,实现78.3%的Top-1准确率。
▊ 1. 论文和代码地址
CondConv: Conditionally Parameterized Convolutions for Efficient Inference
论文地址:https://arxiv.org/abs/1904.04971
代码地址(TensorFlow版本):https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet/condconv
复现代码(Pytorch版本):https://github.com/xmu-xiaoma666/External-Attention-pytorch#5-CondConv-Usage
▊ 2. Motivation
卷积神经网络(CNN)在计算机视觉的许多任务上都取得了SOTA的性能,而这些性能的提高主要来自于模型大小和容量的增加。然而,目前增加模型容量的方法计算成本很高,大模型的推理往往需要占据巨大的计算资源,这限制了其在移动设备上的部署和计算。
卷积层设计中的一个基本假设是,相同的卷积核应用于数据集中的每个样本 。为了增加模型的容量,通常会添