池化过程如何使通道数增加的?_卷积操作中的填充与池化

本文介绍了卷积神经网络中池化操作的原理和作用,包括形状计算、Padding的使用,以及最大池化、平均池化等。重点讨论了池化用于减少参数量和防止过拟合,并探讨了是否必须使用池化层的争议。
摘要由CSDN通过智能技术生成

79b29e58358dfc9397d07ef5e2662b96.png

1 前言

在前面的两篇文章中,笔者分别介绍了卷积的思想与原理以及卷积操作在各类场景下的具体计算过程。在接下来的这篇文中,笔者将主要围绕着卷积后形状的计算、卷积中的池化操作以及Pytorch中卷积操作的用法这三方面来进行介绍。在这篇文章后,对于卷积的基础知识就算是介绍完了,后面笔者将开始对一些经典的卷积网络进行介绍。

2 形状的计算

在前面一篇文章中,笔者详细介绍了卷积操作中的卷积计算过程,但是对于卷积后特征图形状的计算并没有进行介绍。下面,我们就来看看如何计算卷积后的形状。

2.1 输出形状

对于最后输出形状的计算在我们自己写代码的过程中是十分重要的,关系到你如何设置卷积核的大小,以及卷积的层数。现在我们用

equation?tex=W来表示输入特征图的宽度,
equation?tex=F表示卷积核的宽度,
equation?tex=S表示卷积核每移动一次的步长,那么此时卷积后特征图的宽度为:

equation?tex=H%3D%5Clceil%5Cfrac%7BW-F%2B1%7D%7BS%7D%5Crceil%3D%5Clfloor%5Cfrac%7BW-F%7D%7BS%7D%5Crfloor%2B1%5Ctag%7B1%7D+

其中

equation?tex=%5Clceil+x%5Crceil表示对
equation?tex=x向上取整,
equation?tex=%5Clfloor+x%5Crfloor表示对
equation?tex=x向下取整。公式
equation?tex=%281%29中的两种计算方法都行,记住其中一种即可。

例如有输入形状为

equation?tex=%5B32%2C32%2C3%5D的特征图,卷积核的形状为
equation?tex=%5B5%2C5%2C3%2C64%5D,同时步长为
equation?tex=S%3D2,那么卷积后的形状则为:

卷积运算、池化填充和softmax函都是卷积神经网络常用的操作和函卷积运算是卷积神经网络最重要的操作之一。它将输入的图像或特征图与卷积核进行卷积操作,从而提取出图像的局部特征。卷积运算在卷积神经网络的多个卷积被广泛应用,能够通过多个卷积核的不同权重提取出不同的特征。 池化操作卷积神经网络常用的一种降维操作。它通过将特征图进行缩小,减少参和计算量,在保留关键特征的前提下,进一步提取图像的抽象特征。常见的池化操作有最大池化和平均池化,分别选择局部区域的最大值或均值作为池化结果。 填充操作卷积神经网络用于保持输入特征图的尺寸。在进行卷积运算时,为了保持输出特征图的尺寸与输入特征图相同,可以对输入特征图进行填充操作,即在图像的边缘添加一圈固定值的像素。 Softmax函是一种常用的激活函,在卷积神经网络常用于分类任务的最后一层。它将输入的向量转化为概率分布,使得每一个元素都表示一个类别的概率。Softmax函的输出可以解读为对各个类别的置信度,通过选择概率最高的类别进行分类。 综上所述,卷积运算、池化填充和Softmax函都是卷积神经网络常用的操作和函,它们通过提取特征、降维、保持尺寸和分类概率等方式,共同构建了卷积神经网络的基础。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值