对于1*1卷积核的理解

1x1卷积在深度学习网络中常用于通道数的调整,既能降维也能升维,通过改变通道数来控制网络复杂度和参数数量。例如在GoogLeNet的Inception模块中,1x1卷积用于通道降维,减少了计算量和参数,使得网络更紧凑。同时,1x1卷积还实现了跨通道的信息交互,促进不同通道间的特征融合。
摘要由CSDN通过智能技术生成
  1. 常常用于降维(降通道数),其实也可以用于升高维度。

  2. 增加了跨通道的信息交互

在这里插入图片描述
从图的下部可以看出,使用115的卷积,在445的特征图上遍历整个宽和高(44),相当于在宽高做加乘,得到441的特征图。 也就是用3个 11的卷积,可以得到宽高为44,通道数为3的特征图。 这样子就改变了原始的通道数。
对于一张图片28
281这样的单通道图片,其的确没什么作用。但是如果对于282816中多通道图片,使用6个1116的卷积核之后可以将其压缩成2828*6,也就是图片高和宽不变,改变了特征维数。

此外,如果1*1的卷积核数量大于5,那么就变成升高维度了。

关于跨通道的信息交互:
例子:使用1x1卷积核,实现降维和升维的操作其实就是channel间信息的线性组合变化,3x3,64channels的卷积核后面添加一个1x1,28channels的卷积核,就变成了3x3,28channels的卷积核,原来的64个channels就可以理解为跨通道线性组合变成了28channels,这就是通道间的信息交互。
在这里插入图片描述
GoogLeNet实例:
进行降维和升维引起人们重视的(可能)是在GoogLeNet里。对于每一个Inception模块(如下图),原始模块是左图,右图中是加入了1×1卷积进行降维的。虽然左图的卷积核都比较小,但是当输入和输出的通道数很大时,乘起来也会使得卷积核参数变的很大,而右图加入1×1卷积后可以降低输入的通道数,卷积核参数、运算复杂度也就跟着降下来了。以GoogLeNet的3a模块为例,输入的feature map是28×28×192,3a模块中1×1卷积通道为64,3×3卷积通道为128,5×5卷积通道为32,如果是左图结构,那么卷积核参数为1×1×192×64+3×3×64×128+5×5×128×32,而右图对3×3和5×5卷积层前分别加入了通道数为96和16的1×1卷积层,这样卷积核参数就变成了1×1×192×64+(1×1×192×96+3×3×96×128)+(1×1×192×16+5×5×16×32),参数大约减少到原来的三分之一。同时在并行pooling层后面加入1×1卷积层后也可以降低输出的feature map数量,左图pooling后feature map是不变的,再加卷积层得到的feature map,会使输出的feature map扩大到416,如果每个模块都这样,网络的输出会越来越大。而右图在pooling后面加了通道为32的1×1卷积,使得输出的feature map数降到了256。GoogLeNet利用1×1的卷积降维后,得到了更为紧凑的网络结构,虽然总共有22层,但是参数数量却只是8层的AlexNet的十二分之一(当然也有很大一部分原因是去掉了全连接层)。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值