【经典重温】所有数据无需共享同一个卷积核!谷歌提出条件参数化卷积CondConv(附Pytorch复现代码)...

本文介绍了谷歌提出的条件参数化卷积(CondConv),该方法打破传统卷积核共享的假设,为每个样本学习特定的卷积核。CondConv在保持高效推理的同时,增加了模型容量,实现在ImageNet分类和COCO目标检测任务上的性能提升。实验表明,CondConv可以通过增加专家数量来增强模型,同时路由函数的设计对性能至关重要。
摘要由CSDN通过智能技术生成

关注公众号,发现CV技术之美

 写在前面

卷积层是深度神经网络的基本组成部分之一,目前的卷积网络的一个基本假设是卷积核应该为数据集中的所有样本所共享 。在本文中,作者打破了这个假设,提出了条件参数化卷积(CondConv) ,它为每个样本学习专门的卷积核。用CondConv替换普通卷积能够增加网络的大小和容量,同时保持有效的推理。

通过实验,作者证明了CondConv网络在分类和检测任务上,改善了现有几种卷积神经网络结构的性能和推理成本的权衡。在ImageNet分类任务上,将EfficientNet-B0中的卷积替换为CondConv,可以在 413M multiply-adds的计算量下,实现78.3%的Top-1准确率。

 1. 论文和代码地址

692cfa2ff0683b309e8c14bb15a65e62.png

CondConv: Conditionally Parameterized Convolutions for Efficient Inference

论文地址:https://arxiv.org/abs/1904.04971
代码地址(TensorFlow版本):https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet/condconv
复现代码(Pytorch版本):https://github.com/xmu-xiaoma666/External-Attention-pytorch#5-CondConv-Usage

 2. Motivation

卷积神经网络(CNN)在计算机视觉的许多任务上都取得了SOTA的性能,而这些性能的提高主要来自于模型大小和容量的增加。然而,目前增加模型容量的方法计算成本很高,大模型的推理往往需要占据巨大的计算资源,这限制了其在移动设备上的部署和计算。

卷积层设计中的一个基本假设是,相同的卷积核应用于数据集中的每个样本 。为了增加模型的容量,通常会添

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值