学习笔记4-卷积操作(附相关代码)、channels含义( in_channels、卷积channels、out_channels )

**

torch.nn模块包含torch已经准备好的卷积层、归一化层、池化层、激活函数层、全连接层。

4.1卷积层

4.1.1卷积核使用操作:
二维卷积运算过程示意图如下图所示:
请添加图片描述
相信大家和我一样可能道理我们都懂但是一遇到代码就蒙圈,那我们接下来就来看看如何使用torch.nn模块进行卷积操作。
附上一张常用卷积操作对应类的命名
请添加图片描述

相关代码展示:

#承接上图以2x2卷积操作为例,其调用方式为:
torch.nn.conv2d(in_channels=3, #(整数)输入图像的通道数
                out_channels=4, #(整数)经过卷积后,输出特征映射的数量
                kernel_size=2, #(整数或数组)卷积核大小
                stride=1, #(整数或数组,正数)步长,默认为1
                padding=0, #(整数或数组,正数)填充,默认为0
                dilation=1, #(整数或数组,正数)卷积核之间的步幅,默认为1
                groups=1, #(整数,正数)从输入通道到输出通道的阻塞连接数
                bias=True) #(布尔数,正数)偏置bias,当bias=True时为添加偏置,默认为True

4.2.2 channels:
不知道大家在学习的时候有没有遇到和我一样的困扰。什么是channels呢?又如何确定输入的channels、卷积核的channels、输出的channels?

有很多博主都给出了下面的等式:
CNN的卷积核通道数 = 卷积输入层的通道数
CNN的卷积输出层通道数(深度)= 卷积核的个数
根据我自己的理解绘制了下图,希望对你们理解有利~
请添加图片描述
随后学习笔记我会继续跟进学习 归一化层BN2d、池化层pooling、激活函数层relu、全连接层fc!更会虚心接受大家的评判指正!

  • 13
    点赞
  • 47
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值