论文笔记——Data-free Parameter Pruning for Deep Neural Networks

论文地址:https://arxiv.org/abs/1507.06149

1. 主要思想

权值矩阵对应的两列i,j,如果差异很小或者说没有差异的话,就把j列与i列上(合并,也就是去掉j列),然后在下一层中把第j行的权值累加在第i像。 这个过程就想象一下隐藏层中少一个单元,对权值矩阵的影响。 整体思想还是考虑权值矩阵中列的相似性,有点类似于聚类。 然后作者给出了一种计算相似性的方法。

2. 原理

假设一个隐藏层,一个输出单元,那么网络表达式如下:

819060-20171114183828077-1154033088.png

我们可以看到下面这个图:如果两个权值集合W1和W4相等或者相差不大的话,我们可以合并W1和W4,然后累加输出的权值。也就说下图对应两个权值矩阵,在第一个权值矩阵中,删除第4列,然后在第二个权值矩阵中将第四行累加在第一行上。

819060-20171114183852609-738410491.png

但是有一个问题就是,权值完全相等的可能比较少或者没有,那么我们就把条件放宽,差异比较小的,那么怎么衡量呢。请看下面的分析。

3. 相似条件

如果Wi和Wj相等,那么两个输出的误差为:

819060-20171114183933484-1065937620.png

进一步化简,然后两边求期望可以得到以下:

819060-20171114183943265-1838890834.png

819060-20171114183950749-1602893228.png

那么我们可以得到判断是否可以合并的条件:

819060-20171114184846171-2045039464.jpg

解释就是:如果两列权值的差异较少,且aj作为下一层的输入权值不大,那么就可以将i,j合并。

4. 合并过程

819060-20171114184013156-1541161752.png

5. 结果

MNIST上85%的压缩,AlexNet上35%的压缩。这篇文章的可解释性还是很强的,但是可能效果没有这么的好,所以发在了BMVC上吧。

转载于:https://www.cnblogs.com/zhonghuasong/p/7833992.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值