[论文阅读]Cross-Channel Intragroup Sparsity Neural Network

本文介绍了Cross-Channel Intragroup (CCI) 稀疏结构,它解决了细粒度剪枝导致的推理效率低下的问题。作者提出了一种新的训练算法,适用于CCI稀疏性,并在保持模型性能的同时提高了推理效率。实验表明,这种方法在减少计算复杂性和提高硬件加速性能方面具有优势。
摘要由CSDN通过智能技术生成


前言

论文名:Cross-Channel Intragroup Sparsity Neural Network
论文作者:Zilin Yu et.al.
机构:
	Hangzhou Dianzi University(杭州电子科技大学)
	Peiking University(北京大学)
	Cerebras Systems(一家AI初创公司)
期刊/会议名:Arxiv 2019
本文作者:XMU_MIAO
日期:2020/12/7

摘要

  现代深度神经网络依靠过参数化来实现最先进的泛化。但是过参数化的模型在计算上是昂贵的。网络修剪通常用于获得要求较低的部署模型。细粒度的剪枝去除参数张量中的单个权重,可以在精度降低很小的情况下实现高的模型压缩比。但在实际应用中,这种方法引入了数据流的不规则性,往往不能提高模型推理的效率。在粗粒度模型剪枝的同时,通过去除网络权值(例如整个 f i l t e r filter filter)来实现令人满意的推理加速,通常会导致显著的精度退化。
  本研究引入了 C r o s s − c h a n n e l    i n t r a g r o u p ( C C I ) Cross{-}channel\,\,intragroup(CCI) Crosschannelintragroup(CCI),在保持良好模型性能的同时,避免了细粒度剪枝的推理效率低下。然后,我们提出了一种新的训练算法,该算法在 C C I CCI CCI稀疏性的约束下表现良好。通过一系列的对比实验,我们证明了我们提出的 C C I CCI CCI稀疏结构和相应的剪枝算法在推理效率上比现有技术有很大的提高,并且在未来的硬件加速条件下具有良好的性能。

1、Introduction

本文工作的一些贡献:

  • 提出 C C I CCI CCI稀疏结构(细粒度结构化剪枝网络)
  • 理论分析了权重组( w e i g h t    g r o u p weight\,\,group weightgroup)是如何影响稀疏性并且稀疏性如何影响 C C I − S p a r s i t y CCI{-}Sparsity CCISparsity B a l a n c e d − S p a r s i t y Balanced{-}Sparsity Balance
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值