Learning both weights and connections for efficient neural networks

Introduction and related work

 

 

这是《LearningbothWeightsandConnectionsforEfcient NeuralNetworks》中所有关于缩小时间的描述:

这个3x就是根据应该计算的浮点数得出的,即去掉那些剪掉的权重,余下的权重需要参与的浮点数计算。用索引ormask,都没有说。但无论用索引(索引也很费时间,这要看到底有多稀疏,才能知道能不能减少时间)还是用mask(不会减少时间),都不会达到减少时间的目的

 

一次载入确实减少了多次载入的花费时间。但,如果用mask,这种一次载入并不好用。而用索引,倒是可以,但需要对没有计算的激活值填零。

 

这篇文章主要是讲述缩小网络的大小。但是,关于时间并没有深入讲述。

 

存储是按稀疏矩阵的存储方式,所以可以全部载入内存进行计算。所以减少了多次载入内存的时间。但是,按照dense convolution的方式进行计算,还是需要复制输入(原图或feature map),即需要多次将输入载入内存吗,从而耗费时间。而direct sparse convolution则缩小输入,从而再次减少载入内存时间。

但是Learning both weights and connections for efficient neural networks和FASTER CNNS WITH DIRECT SPARSE CONVOLUTIONS AND GUIDED PRUNING两篇论文中个,针对weight0的连接,还需要计算吗?

如果weight0的不需要计算,那么在第一篇论文中,feature map中没有计算的那些激活值需要填0吗?

第二篇论文中,weight0的需不需要计算,取决于第一篇论文中的0计没计算。

转载于:https://www.cnblogs.com/mengmengmiaomiao/p/7602706.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值