CNN: 1x1卷积层的精妙之处

1x1卷积在神经网络中主要用来改变矩阵维度和增加非线性。通过1x1卷积,可以有效降低计算量,实现特征图的降维或升维,同时保持矩阵性质不变,构建出各种结构的神经网络。在ResNet中的bottleneck结构中,1x1卷积用于创建从低维到高维再到低维的空间过渡,增加了网络的非线性程度,降低了计算复杂度,使得深层网络能更精确地逼近目标模型。
摘要由CSDN通过智能技术生成

现在各种神经网络都会用到1x1 conv,它到底起到什么作用呢?要回答这个问题,先从最经典的Inception模型说起,Figure 1是Inception-ResNet-v2的block架构图。

Figure 1: https://arxiv.org/pdf/1602.07261.pdf

作用一:改变矩阵维度

block中每个sublayer的第一层都1x1 conv,它在这里的作用之一是降维,减少运算量–feature map channel数越少,卷积操作需要的计算量越小。但就像图像压缩一样,压缩率越大丢帧越多,1x1 conv是如果做到在质量与速度的平衡的呢?

Figure 2

Figure 2中间图形就是1x1卷积核,左边的矩阵是input,而右边的正方形代表feature map中的一个grid,或一个pix

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值