卷积核里面的参数怎么来的_FSNet:利用卷积核概要进行深度卷积神经网络的压缩...

e6ec5219ccf4e9567087d893738510e4.png

据官方消息,ICLR 2020会议将取消线下会议,并于4月25日-30日线上举办虚拟会议。本届会议共有 2594篇投稿,其中 687篇论文被接收(48篇oral论文,107篇spotlight论文和531篇poster论文),接收率为26.5%。

本文介绍发表在 ICLR 2020 上的论文《FSNet: Compression of Deep Convolutional Neural Networks by Filter Summary》。该工作针对深度卷积网络提出了一种全新的基于可微参数共享的模型压缩方法。

文 | Yingzhen Yang

编 | 贾伟

0aebd3809f28c845419f5cf3bab91c02.png

论文链接:

https://openreview.net/forum?id=S1xtORNFwH

深度神经网络的压缩和加速一直是深度学习领域的热点问题。本文针对深度卷积网络提出了一种全新的基于可微分参数共享的模型压缩方法。

注意到卷积网络的参数主要集中于卷积核,新方法提出一种被称为卷积核概要(Filter Summary)的新型紧凑结构来表示同一个卷积层中的所有卷积核。

3ce0c89a1f2537ad724932321e577be5.png

我们将基线网络的每一个卷积层的所有卷积核都用一个卷积核概要来替代,这样得到的网络被称为卷积核概要网络 (Filter Summary Net, or FSNet)。在卷积核概要网络中, 同一个卷积层的所有卷积核都被表示成卷积核概要中的互相重叠的张量。

1dad01c239cf18d9c10ada0eb3d45cab.png
903d6c5be0577dd890c6553e0f13b973.png

因为相邻卷积核在它们的重叠区域自然的共享参数,卷积核概要的参数量远小于基线网络对应层的所有卷积核的参数量,卷积核概要网络的参数总量也相应的远小于其基线网络的参数总量。卷积核概要还可以和参数量化方法结合,从而进一步提高压缩率。

我们在图像分类和目标检测这两个计算机视觉任务上展示卷积核概要网络的实验结果。

在图像分类任务中,在CIFAR-10和ImageNet数据集上卷积核概要网络的压缩率均超过了传统的卷积核剪枝方法。

b548b7ae295d6544887f8ee6583e4b2a.png

在目标检测任务中,我们利用SSD300作为基线网络,并采用PASCAL Visual Object Classes (VOC) 2007/2012 作为训练集。配合参数量化方法,卷积核概要网络仅用0.68M参数量即在VOC 2007的测试集上达到了70.00% mAP。作为对照,MobileNetV2 SSD-Lite (Sandler et al., 2018) 需要3.46M参数量在相同的训练集和测试集上达到68.60% mAP。

22be96a93433ade788dcca6cff7463ab.png

我们进一步将卷积核概要网络和神经网络架构自动搜索的思路结合,提出可微分卷积核概要网络 (Differentiable FSNet, or DFSNet)。

我们利用最近的可微分神经网路架构搜索方法 (Differentiable Architecture Search, DARTS) 中的模型作为基线网络,在CIFAR-10数据的训练集上训练得到的可微分卷积核概要网络仅用1.88M参数量就在CIFAR-10测试集上达到了97.19%的分类准确率。相较于基线网络 (DARTS)的3.13M参数量和97.50%准确率,可微分卷积核概要网络在仅损失0.31%的准确率的代价下降低了40%的参数量。

随着神经网络架构自动搜索技术的发展,我们相信(可微分)卷积核概要网络将在未来发挥更大的作用。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值