网络压缩

CirCNN: Accelerating and Compressing Deep Neural Networks Using Block-Circulant Weight Matrices


本文主要使用的是块循环矩阵的特殊性来压缩网络结构。因为在深度神经网络中,主要包含卷积,池化,全连接层等,在这些操作中,主要是与 fliter相乘,本文则使用循环矩阵的方式替换这种乘法,用来加速和压缩网络。

核心:利用循环块矩阵替代矩阵的乘法。


循环矩阵提出证明了循环矩阵就等价与傅立叶变换的结果。可以参考https://blog.csdn.net/u013288466/article/details/53575692。

而卷积网络计算时大量的工作量都是用在矩阵的乘法上,为了加速乘法的运算,使用傅立叶变换替换。如果只是从完全替换的话,快速傅立叶变换并没有比循环矩阵的快。但是作者考虑整个循环矩阵的替换过程包括 傅立叶变换,矩阵点乘,反傅立叶变换三个方面,第一步操作在存储数据结构时就可以使用,只需要执行后面两步骤。那么运算过程将得到加速。



而具体对全连接层和卷积层变换如下

1.全连接层

将全连接的权值矩阵设成块循环矩阵,利用块循环矩阵的特点,用傅立叶变换替换块循环矩阵的乘法。具体如图所示,训练的时候就将全连接层的参数矩阵视作块矩阵的结果进行训练,每个块矩阵的乘法,可以用快速傅立叶变换替代。


2.卷积层

在设计卷积核时将每个卷积核设置成块矩阵。然后通过转换将卷积层的输出转换成二维矩阵的结构,将卷积核组成块矩阵的方式,这样就与全连接层一样的乘法相似,可以对卷积的运算进行加速。


暂时写到这里。如果有错误请指出。后面会继续更新。谢谢。



  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值