卷积运算转换为矩阵乘法

        看卷积神经网络的时候,发现代码中计算卷积是通过矩阵乘法来计算的。

搜了一下发现网上这方面的资料很少。刚开始找中文的,找到两个。

http://blog.csdn.net/anan1205/article/details/12313593

http://zhongcheng0519.blog.163.com/blog/static/161690688201122141335874/

        看了之后,还是不懂。然后开始搜英文的。

最后搜到两个挺有用的,一个是维基百科对Toeplitz的介绍,一个是图像处理的书籍。

http://en.wikipedia.org/wiki/Toeplitz_matrix

Toeplitzmatrix

http://books.google.com.hk/books?id=JeDGn6Wmf1kC&pg=PA110&lpg=PA110&dq=2-D+convolution+as+a+matrix-matrix+multiplication&source=bl&ots=kdxpa_C-Ax&sig=afy2CMZHEkoV-7ymwcBFMwvRB8U&hl=zh-CN&sa=X&ei=wjVOU_jkEMypkgW09IDwCQ&ved=0CEEQ6AEwAg#v=onepage&q=2-D%20convolution%20as%20a%20matrix-matrix%20multiplication&f=false


下面拿一个例子来讲解一下,怎么把卷积运算转换为矩阵乘法运算。其实是那本书的一个例子。

X=[

1   2

3  4]

h= [

5   6

7  8]

其中,X是卷积核。


1 X的每一行生成一个小矩阵

第一行[1 2]

首先插入1,得[1 0],补的0的数量等于H的列数-1。这里,h的列数是2,故补2-1=10

再右移一位插入2,得出第二行,得[10

2   1]

再右移一位得出第三行,得

[

1 0

2 1

0 2]。把这个等于H0

第二行[3 4],同理得

H1=[

3 0

4 3

0 4]

观察这个过程,明显是将上一行右移再插入新的值到第一个列从而得出下一行。

我们可以假设第0行是[0 0],最后一行是[0 0]

[

0 0

3 0

4 3

0 4

0 0

]就可以看到规律。


算出Toeplitz矩阵

A= [

H0  O

H1 H0

O  H1],其中O是一个由若干个0组成的小矩阵。

这个例子中,

A=

[

1 0 0 0

2 1 0 0

0 2 0 0

3 0 1 0

4 3 2 1

0 4 0 2

0 0 3 0

0 0 4 3

0 0 0 4

]


h变为列向量,按照行的顺序来,得

[

5

6

7

8

]


Toeplitz矩阵和列向量相乘,得

[

5

16

12

22

60

40

21

52

32

]

整理为矩阵得,

[

5 16 12

22 60 40

21 52 32

]


下面来验证一下,

首先将卷积核旋转180度,得

[

4 3

2 1

]

从左上开始,滑动算点积,得

5*1= 5

5*2+ 6*1 = 16

6*2= 12

5*3+7*1=22

5*4+6*3+7*2+8*1=60,

。。。。。。

正确!!!


特别说明一下,根据那本书所说,这算的是线性卷积。还有种卷积叫循环卷积。






  • 10
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
卷积运算是一种常见的信号处理方法,通常用于图像处理、语音识别、自然语言处理等领域。在深度学习中,卷积运算也是卷积神经网络的核心操作之一。 卷积运算的本质是一种特殊的加权求和运算,它将一个输入信号与一个卷积核进行卷积,从而得到一个输出信号。卷积核通常是一个小的矩阵,其大小通常为 $n \times m$,其中 $n$ 和 $m$ 分别表示卷积核的高度和宽度。输入信号通常是一个二维矩阵,其大小为 $h \times w$,其中 $h$ 和 $w$ 分别表示输入信号的高度和宽度。输出信号的大小也为 $h \times w$。 具体来说,卷积运算可以表示为以下公式: $$ y[i,j]=\sum_{k=-\lfloor n/2 \rfloor}^{\lfloor n/2 \rfloor} \sum_{l=-\lfloor m/2 \rfloor}^{\lfloor m/2 \rfloor} x[i+k,j+l] \times w[k+\lfloor n/2 \rfloor,l+\lfloor m/2 \rfloor] $$ 其中,$x[i,j]$ 表示输入信号的第 $i$ 行第 $j$ 列的元素,$w[k,l]$ 表示卷积核的第 $k$ 行第 $l$ 列的元素,$y[i,j]$ 表示输出信号的第 $i$ 行第 $j$ 列的元素。$\lfloor \cdot \rfloor$ 表示向下取整操作。 卷积运算的具体实现方式有很多种,其中最常用的方式是使用 im2col 技巧将输入信号转换为一个二维矩阵,然后再对这个矩阵进行矩阵乘法运算。这种方式的优点是可以充分利用矩阵乘法的高效性,缺点是需要进行一定的数据重组操作,因此会增加一定的计算量。 卷积运算在深度学习中的应用非常广泛,例如图像分类、目标检测、语音识别、自然语言处理等领域都会用到卷积神经网络。由于卷积运算具有共享权值和局部连接的特点,因此可以有效地减少网络参数和计算量,从而提高网络的训练速度和泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值