CNN中1*1 卷积核

       卷积神经网络中卷积核的作用是提取图像更高维的特征,一个卷积核代表一种特征提取方式,对应产生一个特征图,卷积核的尺寸对应感受野的大小。经典的卷积示意图如下:

                                        

 卷积核的大小一般是(2n+1)*(2n+1)的奇数乘奇数大小(n>=1),最常用的有3*3,5*5,7*7的。主要原因有两点:

 

1.  一般情况下,使用n*n大小的卷积核对大小为N*N的图像卷积,结果图像尺寸缩小为(N-n+1),这种卷积操作的都是图像上真实的像素,不需要对图像进行扩充。

          另一种补白方式是(Same Padding),在卷积核对图像执行 Same Padding 卷积时,要求卷积后图像大小跟原图像大小保持一致,这就需要提前给原图像做  Padding  操作,即给图像增加额外的空白,增大图像尺寸使得卷积后大小为原图像大小,Padding操作示意图如下:

                                                                       
       在相同补白(Same Padding)模式下,需要补充的像素大小是N-(N-n+1)= n-1个,这里的n表示的是卷积核大小,                ( 如果n为奇数,则n-1为偶数,补得这n-1个像素可以在图像两侧对称分布,如果使用偶数的卷积核,n-1为奇数,无法在图像两侧对称分布  )

2. 奇数卷积核有中心点,可以方便的确定位置,而偶数的卷积核不存在绝对的中心点。

1*1 卷积核

        在残差网络的Bootleneck残差模块和GoogleNet的Inception模块里出现了1*1的卷积核:

                                      

                                 

             与(2n+1)*(2n+1)的卷积核提取图像特征顺便降低图像尺寸不同,1*1的卷积核的作用是提升或者降低特征(个数)的维度,而不改变图像的宽高。这里的维度是指 图像的通道数(厚度,如RGB图像的通道数是3, 10个单通道的特征图一起组成通道数是10)。

  

例如经过某次卷积后,得到W*H*10的特征图,这里通道数是10,如果需要降维成W*H*6,即把10个特征图减少到6个。这就需要使用6组,每组10个的1*1的卷积核来实现。10个1*1的卷积核和上一层W*H*10的特征图卷积,得到一个W*H*1的特征图,使用6组这样的1*1卷积核,就可以得到W*H*6维度的特征图,实现了特征图的压缩,而不改变图像的宽高。这里一共有6*10=60个可训练参数。

同理,使用1*1卷积核也可以实现特征图升维。
       从图像处理的角度看1*1的卷积操作,可以把它理解成是把N个图像按N个不同的系数融合的操作,需要多少个特征图就融合多少次。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值