1*1卷积层的作用

Ref:

https://www.zhihu.com/question/56024942

http://m.blog.csdn.net/chaipp0607/article/details/60868689


1*1卷积的主要作用有以下几点:

1、降维( dimension reductionality )。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做1*1的卷积,那么结果的大小为500*500*20。

2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力;


当1*1卷积出现时,在大多数情况下它作用是升/降特征的维度,这里的维度指的是通道数(厚度),而不改变图片的宽和高。

举个例子,比如某次卷积之后的结果是W*H*6的特征,现在需要用1*1的卷积核将其降维成W*H*5,即6个通道变成5个通道: 
如下图就是一个W*H*6的特征,而1*1的卷积核在图上标出,卷积核自身的厚度也是6(图画的好难看!!) 
这里写图片描述

通过一次卷积操作,W*H*6将变为W*H*1,这样的话,使用5个1*1的卷积核,显然可以卷积出5个W*H*1,再做通道的串接操作,就实现了W*H*5。 
在这里先计算一下参数数量,一遍后面说明,5个卷积核,每个卷积核的尺寸是1*1*6,也就是一种有30个参数。

我们还可以用另一种角度去理解1*1卷积,可以把它看成是一种全连接,如下图: 
这里写图片描述

第一层有6个神经元,分别是a1—a6,通过全连接之后变成5个,分别是b1—b5,第一层的六个神经元要和后面五个实现全连接,本图中只画了a1—a6连接到b1的示意,可以看到,在全连接层b1其实是前面6个神经元的加权和,权对应的就是w1—w6,到这里就很清晰了: 
第一层的6个神经元其实就相当于输入特征里面那个通道数:6,而第二层的5个神经元相当于1*1卷积之后的新的特征通道数:5。 
w1—w6是一个卷积核的权系数,如何要计算b2—b5,显然还需要4个同样尺寸的核。

最后一个问题,图像的一层相比于神经元还是有区别的,这在于是一个2D矩阵还是一个数字,但是即便是一个2D矩阵的话也还是只需要一个参数(1*1的核),这就是因为参数的权值共享


Inception V1网络是由多个卷积层和池化层组成的,各自具有不同的作用。下面是Inception V1网络的各个卷积层作用: 1. 输入层:接收输入的图像数据。 2. 卷积层1:使用多种不同大小的卷积核进行卷积操作,提取图像的低层次特征,如边缘、线条等。 3. 池化层1:对卷积层1的输出进行下采样操作,减小特征图的尺寸,同时保留主要特征。 4. 卷积层2:使用多种不同大小的卷积核进行卷积操作,提取图像的中层次特征,如纹理、形状等。 5. 池化层2:对卷积层2的输出进行下采样操作。 6. Inception 3a:引入Inception结构,使用多种不同的卷积核和池化层进行卷积操作,提取图像的高层次特征,如物体部件等。 7. Inception 3b:继续使用Inception结构,提取更加丰富的特征信息。 8. Inception 4a、4b、4c、4d:增加网络深度,继续使用Inception结构,提取更加丰富的特征信息。 9. Inception 4e:引入1x1卷积核进行升维操作,增加网络的表达能力。 10. 池化层3:对Inception 4e的输出进行下采样操作。 11. Inception 5a、5b:继续增加网络深度,提取更加丰富的特征信息。 12. 全局平均池化层:将特征图进行平均池化操作,得到每个通道的特征数值。 13. 全连接层:将全局平均池化层的输出连接到全连接层,进行分类操作。 总之,在Inception V1网络中,每个卷积层和池化层都有不同的作用,通过不同的操作,逐步提取图像的低、中、高层次特征信息,最终进行图像分类操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值