卷积神经网络(1)

7 篇文章 0 订阅

之前学了多层感知机(即全连接网络),现在来看看卷积神经网络。

在说卷积神经网络之前,先来说一个故事,盲人摸象
“从前,有四个盲人,从来没有见过大象,不知道大象长什么样,他们决定去摸摸大象。每个人摸的大象都不是同一个部位,且没有摸完大象的全部。他们争吵不休,都说自己摸到的才是大象真正的样子。”盲人摸象告诉大家的道理是看问题一定要全面。

好的废话少说,我们来看看卷积神经网络cnn。
卷积神经网络和全连接神经网络一样是前馈神经网络,它的神经元可以覆盖源物体的一部分区域。
在这里插入图片描述
(全连接)

在这里插入图片描述
(卷积网络)
由上图可以看出,全连接网络的是将每两层所有神经元相互连接构成的网络,全连接由输入层、隐藏层、输出层的神经元相互连接构成的网络。
而卷积网络是由输入层、卷积层、池化层、全连接层构成的网络。

1、卷积层
在卷积网络中卷积层的主要功能是提取图像特征。
那么它是如何提取出现特征呢?
例如我们将一个5 * 5的图像输入到卷积网络,卷积网络用一个叫卷积核的东西按照一定的步长对图像进行移步扫描并且计算,最终形成特征图的过程。
用图像来表示可能会更加清楚.
在这里插入图片描述
上图中一个5 * 5个图片,被一个3 * 3的卷积核 按照1的步长进行扫描,最终得到了一个3 * 3的特征图。
可以清楚的看到 特征图第一个方格的数值 等于原图片 第一个3*3区域的值按位乘以 卷积中的参数值后再相加的过程。我们暂且将原图的值用x代替,卷积核用w代替,特征图用f表示
即 x00 * w00 + x01 * w01 + x02 * w02 … x22 * w22 , 1 * 1 + 1 * 0 … = 4
依次计算填充特征图的单元格。我们可以带上激活函数relu。
在这里插入图片描述
f00 = relu(x00 * w00 + x01 * w01 + x02 * w02 … x22 * w22 ) = 4

以上例子说的是步长为1的情况,形成的特征图是3 * 3,那么当步长为2或者3又当如何,前人已经为我们总结了卷积的计算公式。
W2 = (W1-F+2P)/S +1
H2 = (H1-F+2P)/S+1
在上面两个公式中,W2是卷积后Feature Map的宽度;W1是卷积前图像的宽度;F是filter的宽度;P是Zero Padding数量,Zero Padding是指在原始图像周围补几圈0,如果P的值是1,那么就补1圈0;S是步幅;是卷积后Feature Map的高度;是卷积前图像的宽度。

说到这里,可以看出卷积网络的卷积核其实就是一组权重,那么我们最终就是要更新这一组权重。但是在实际情况下,单靠一组权重是不是观察的过于片面呢?就像盲人摸象一样,有人摸鼻子,有人摸腿,有人摸身子。我们就用这一组摸鼻子的权重来计算肯定是不准确的,所以我们需要用多组权重来进行计算。

在这里插入图片描述
上面一张3通道的图片可以看出有两个filter(权重) 进行扫描,那么这种情况就会产生两个3 * 3特征图。所以最终的大小就是3 * 3 * 2。 说到这里可以已经明白了,多个卷积核对图片扫描其实就是站在不通的角度来观察图片,最终能得到更多特征的过程。而最终图像需要用这多种特征来进行判别。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值