卷积神经网络_图像卷积解释

学习卷积神经网络一段时间了,记录下关于卷积神经网络中图像卷积的原理。

互相学习交流。

1、人工神经网络

首先看下人工神经网络感知器的原理图,这个不是重点,但是卷积神经网络由此而来,所以截取材料如下:

 

类似wx + b的形式,其中·       a1~an为输入向量,当然,也常用x1~xn表示输入·       w1~wn为权重·       b为偏置bias·       f为激活函数·       t为输出

2、卷积神经网络


从图中可以看出,卷积神经网络实际就是利用卷积代替全连接,好处就是可以显著减少权重矩阵的参数,提高训练效率,详细请自行查阅资料。

我们知道对于全连接网络输出z=wx+b,而对于卷积神经网络,实际公式应该写成z=wUx+b,权重w和输入x做卷积。这是对于一维卷积层而言,而在图像处理中,图像是以二维矩阵的形式输入到神经网络中,因此我们需要二维卷积。下面介绍图像二维卷积。

3、图像二维卷积


上图中,最左侧的三个矩阵就是输入,就是所谓的FeatureMaps(特征图),中间有两个滤波器Filter w0和Filter W1,每个滤波器含有三个小矩阵,这三个小矩阵我们把它们叫做卷积核,也叫卷积核算子或者卷积算子,这两个滤波器对应个着最右面的两个输出矩阵。实际上就是每一个滤波器提取图像的一种特征,所以两个滤波器就对应着两个输出矩阵,我们把每一组输出也叫做一组特征映射。每个特征图分别对应一个卷积核,也就是说一个特征图上共享一个卷积核,这也就是卷积神经网络所谓的权值共享机制。具体的计算方式可以参照http://blog.csdn.net/real_myth/article/details/51824193

此时的输入就不是一个数了,而是矩阵,左边这三个矩阵对应着就是输入X0,X1,X2,而此时的Z就是输出矩阵Z=WUX+B,W为权重矩阵,B为偏置矩阵。



如上图,L-1层输入X0,X1,X2,L层的X是输出矩阵Z经过激励函数得到的结果。即为:


其中f为激励函数。我们知道卷积神经网络分多层,其中卷积层部分都是按照上述原理进行。至于卷积神经网络的局部感知和下采样在此不赘述。


阅读更多
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/gaohuazhao/article/details/52345688
个人分类: 机器学习
上一篇c/c++插入排序
下一篇Python2.7安装Numpy+Scipy+Matplotlib+Scikit-Learn
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

关闭
关闭