1×1 卷积(Network in Network)的三个作用(详解!)

介绍1×1卷积核作用

一.升维/降维(改变特征图通道数)

                               池化层压缩特征图的高度和宽度,1×1卷积核可压缩通道数!
       假设有一个32×32×3的特征图,可以使用池化层压缩它的高度和宽度。但如果通道数量很大,该如何把它压缩为28×28×7的特征图?可以用7个大小为1×1的过滤器,每个过滤器大小都是1×1×3维,因为过滤器中通道数量必须与输入层中通道的数量保持一致。
字有点丑,但是原理很清晰
二.可以实现多个feature map 线性叠加实现特征组合
       在1×1核的个数与特征图通道数相同时,卷积后不改变特征图的通道数,但是由于卷积核中的数值是权重b,且每个1×1卷积核中的权重值都不同,所以用1×1卷积核进行卷积后可以实现多个feature map 线性叠加实现特征组合。

三. 可给网络加入了非线性
       后接非线性激活函数如ReLU,可以在保持特征图尺度不变的前提下大幅增加非线性特性。非线性允许网络学习更复杂的功能,并且使得整个网络能够进一步加深。

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,主要用于图像识别和计算机视觉任务。它通过模拟人类视觉系统的工作原理,从输入图像中提取特征并进行分类或回归。 CNN的核心思想是卷积操作和池化操作。卷积操作通过滑动一个小的窗口(卷积核)在输入图像上提取局部特征,这样可以保留空间结构信息。池化操作则用于降低特征图的维度,减少计算量,并且具有一定的平移不变性。 以下是卷积神经网络的基本结构和步骤: 1. 卷积层:卷积层是CNN的核心组成部分,它由多个卷积核组成。每个卷积核在输入图像上进行卷积操作,生成对应的特征图。每个特征图对应一个卷积核提取的特征。 2. 激活函数:在卷积层之后,通常会使用激活函数(如ReLU)对特征图进行非线性变换,增加网络的表达能力。 3. 池化层:池化层用于减小特征图的尺寸,并保留重要的特征。常用的池化操作有最大池化和平均池化。 4. 全连接层:全连接层将池化层输出的特征图展平成一维向量,并通过全连接层进行分类或回归。 5. 输出层:输出层根据任务的不同选择适当的激活函数,如softmax用于多分类问题,sigmoid用于二分类问题。 CNN的训练过程通常使用反向传播算法,通过最小化损失函数来更新网络参数。常用的优化算法有梯度下降法和Adam优化算法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值