卷积神经网络及其特征图可视化

本文详细介绍了卷积神经网络(CNN)的卷积层与池化层,包括卷积单元、特征图计算、池化层的作用和类型。还探讨了卷积层的设计公式,并提供了自定义网络特征可视化的代码和实例,帮助读者理解CNN的运作机制。
摘要由CSDN通过智能技术生成

参考链接:https://www.jianshu.com/p/362b637e2242

参考链接:https://blog.csdn.net/dcrmg/article/details/81255498/

参考链接:https://zhuanlan.zhihu.com/p/59917842

参考链接:https://www.jb51.net/article/171016.htm

一、卷积与特征图

一个简单的深度网络模型,主要是:

input -> conv -> feature_map -> maxpooling -> flatten -> fully connected -> output

CNN:卷积层、池化层、连接层

1. 卷积层

       卷积层由一组卷积单元(又称"卷积核")组成,可以把这些卷积单元理解为过滤器,每个过滤器都会提取一种特定的特征。           输入图像是32*32*3,3是它的深度(即R、G、B三色通道),卷积层是一个5*5*3的filter,这里注意:filter的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28*28*1的特征图,如果用了两个filter得到了两个特征图。

举个例子,input、filter、output依次是

输入是一个4*4 的image,经过两个2*2的卷积核进行卷积运算后,变成两个3*3的feature_map。 

最简单的方式计算就是:

(4-2+1)×(4-2+1)=3×3

接下来,我们了解一下中间转换的过程,以上图卷积核filter1为例,filter1在图片滑过,步长为1(stride = 1):

input、filter、output如下图所示

计算第一个卷积层神经元o11的输入: 

neto11=conv(input,filter)=i11×h11+i12×h12+i21×h21+i22×h22=1×1+0×(−1)+1×1+1×(−1)=1

神经元o11的输出:(此处使用Relu激活函数)

outo11=activators(neto11)=max(0, neto11)=1

而对于这个问题,最终转换后的特征图为:

以filter1为例

这样表示不太准确,但大体就是这样计算的。

了解整个过程:

参考这个动图:来源于https://blog.csdn.net/silence1214/article/details/11809947

2.  池化层(下采样层、Down-pooling)

参考链接:https://blog.csdn.net/weixin_38208741/article/details/78818882

参考链接:https://blog.csdn.net/weixin_39568744/article/details/82250663?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-t

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蹦跶的小羊羔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值