文献阅读(93)神经网络压缩(CVPR 2019)

1

  • 题目:Accelerating Convolutional Neural Networks via Activation Map Compression
  • 时间:2019
  • 会议:CVPR
  • 研究机构:三星

1.1 abstract

本篇论文的主要贡献:

  1. 增加网络稀疏性而不降低精度的训练方法
  2. 对特征图的无损压缩

1.2 方法

our desire is to achieve sparser activation maps

修改损失函数:
在这里插入图片描述
在这里插入图片描述

其中:

  • w表示权重,x表示特征图
  • N表示mini-batch大小,L表示层数
  • λ、α表示大于零的常数

同时给了后向传播的公式
在这里插入图片描述
在这里插入图片描述
压缩算法: sparse-exponential-Golomb (SEG)

1.3 实验

Speed-up factor is calculated by dividing the number of non-zero activations of the baseline by the number of non-zero activations of the sparse models

在这里插入图片描述

Many Sparse models not only have an increased sparsity in their activation maps, but also demonstrate increased accuracy

2

  • 题目:Efficient Neural Network Compression
  • 时间:2019
  • 会议:CVPR
  • 研究机构:韩国KAIST

2.1 abstract

本篇论文的主要贡献:

  • 基于SVD的网络压缩
  • 快速找到最优rank配置的方法

2.2 奇异值分解

在这里插入图片描述
在这里插入图片描述

2.3 确定rank配置

  1. 确定范围,缩写搜索空间
    在这里插入图片描述
  2. 指定跟精度相关的指标
    在这里插入图片描述
    在这里插入图片描述

2.3 实验

在这里插入图片描述

Results with 20% FLOPs reduction are given in Table 2

在这里插入图片描述

3

  • 题目:Compressing Convolutional Neural Networks via Factorized Convolutional Filter
  • 时间:2019
  • 会议:CVPR
  • 研究机构:清华深圳院

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值