卷积的in_channel与out_channel

刚学时写的很浅显的文章,建议大家看

【CNN】理解卷积神经网络中的通道 channel_cnn_scxyz_-DevPress官方社区在深度学习的算法学习中,都会提到 channels这个概念。在一般的深度学习框架的 conv2d 中,如 tensorflow 、mxnet ,channels 都是必填的一个参数。channels 该如何理解?先看一看不同框架中的解释文档。首先,是 tensorflow 中给出的,对于输入样本中 channels 的含义。一般的RGB图片,channels 数量是 3 (红、绿、蓝)... scxyz_ DevPress官方社区https://aistudio.csdn.net/62e38a9fcd38997446774d77.html?spm=1001.2101.3001.6661.1&utm_medium=distribute.pc_relevant_t0.none-task-blog-2~default~CTRLIST~activity-1-79814146-blog-122789563.pc_relevant_3mothn_strategy_recovery&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-2~default~CTRLIST~activity-1-79814146-blog-122789563.pc_relevant_3mothn_strategy_recovery&utm_relevant_index=1更加全面,讲的也很好

CNN中feature map、卷积核、卷积核个数、filter、channel_卷积层卷积核个数_xiewenbo的博客-CSDN博客只需要一句话就解释清楚了:不管输入图像的深度为多少,经过一个卷积核(filter),最后都通过下面的公式变成一个深度为1的特征图。 也就是说不管卷积核深度是多少(卷积核的深度和要被卷积的原始神经元的深度要一样),而卷积会合并卷积深度为1,我想这才是很多人疑惑的地方,其他的没什么好疑惑的。这里还是想强调一下,卷积核(filter)的channel数,其实是与输入图像相同的,所以常常会省略不写,只...https://blog.csdn.net/xiewenbo/article/details/96509195在我们平时看的网络结构当中,由于卷积核的深度往往与输入的深度相同,因此往往会省略。

例如输入的是一张RGB的图片,可以这样来表示(512×512×3),512×512代表图片的大小(512*512个像素点),而RGB图像的深度有三层。

那么要想与这样的一张RGB图像进行卷积操作就意味着卷积核的深度也为3层,图像的第一层与卷积核的第一层进行卷积,第二层与卷积核的第二层进行卷积,第三层与第三层进行卷积,分别卷积后再进行累加:

 每一层分别卷积之后进行累加,得到一层的输出。

 

最后的输出的结果也就是特征层的深度为1.

如果这张图片和多个卷积核进行卷积计算,那么输出的层数也就会增加(这也就是输出通道的个数)

卷积核的个数=输出通道

输入通道等于输入的深度(而卷积核的深度与输入的深度一样(为了每一层对应计算嘛),因此卷积核的输入通道往往省略不写)。

  • 6
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值