网络压缩--稀疏加速器--软硬件CoDesign

 

18/11/22

论文标题:Exploring the Granularity of Sparsity in Convolutional Neural Networks

CPVR2017的一篇文章

主题是探索关于CNN不同粒度剪枝下稀疏度与accuracy的关系,论文摘要中首先提到粗粒度/结构化的剪枝方式能为硬件实现带来便捷,而细粒度的剪枝手段能带来更加强的剪枝效果,从而带来更好的稀疏度(不影响精度前提),实验结果显示本文从不同粒度剪枝后的网络参数存储量视角出发,粗剪枝仍然可以带来较为不错的效果(storage-ratio)文章中细粒度的认知有些不同,个人将基于Vector级的剪枝归属于细粒度下

统一参数定义:R、S、K、C

首先是从参数稀疏度上看不同粒度下效果(CONV层做剪枝):

上图中剪枝的实验网络为AlexNet,横坐标为参数稀疏度,纵坐标是网络精度,基于Filter上的剪枝效果带来的精度收益不高,细粒度剪枝角度(个人理解是神经元连接间剪枝方式)带来的稀疏度最高-精度基本不损失前提下。

尝试扩大剪枝步伐/stride,如下图

加入存储量的考量(包含稀疏参数的index,默认保存格式CSR)

精度基本不损失前提下,能看到从kernel轴剪枝的曲线逐渐追上了前两种剪枝方式。多加入几组网络,保证精度从存储量上看看:

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值