关于feature map, 神经元个数,可训练参数个数, 卷积核大小 的一些总结

参考这个文章的部分笔记和理解:
http://blog.csdn.net/dcxhun3/article/details/46878999

输入input: 32 x 32 的图像
使用:    6个 5x5  stride为 1的卷积核

神经元 个数: (32-5+1) * (32 -5 +1) = 28 * 28 个。也就是每一个feature map的大小就是28 * 28 。  
其中,32-5是卷积核可以滑过并得到一次计算结果的次数(因为步幅是1),+1是卷积核放在最开始的位置上还没开始滑动时的一次计算结果。
那么这一层一共有 (5*5 +1)*6个可训练参数,其中5*5为卷积核的大小,1为一个bias参数, 6为6种卷积核。
注意如果是三通道,三个通道的权重并不共享。 所以对于以上的计算,三通道的参数数量应该还要乘以3。

个人总结的 feature map 和 神经元的关系 及其他概念的关系 :

feature map 和 神经元的关系:
单个卷积核情况下:
 神经元是 前一层wx+b 到下一层的计算过程,所谓这一层的连接数,也就是有多少个 wx+b的连接(一个卷积核有多个w只有一个bias)
 一个feature map 是多个(比如M个)神经元计算的结果汇总
多个卷积核情况下:
同一层可以有多个(比如N个)卷积核,每个卷积核对应(卷积的结果是)一个feature map ,也就是这一层有N个feature map, 那这一层共有 N*M个神经元。(如果每个fm的神经元个数不一样,则累加每个fm的神经元个数)

可训练参数个数, 与神经元的个数无关,只与卷积核的大小及卷积核的个数相关,还有通道数
神经元个数,       除了卷积核大小和个数,还与步幅相关。步幅越大,神经元个数越小

feature map的每个点都是一个神经元的输出。所以 神经元个数 = 特征图大小
连接个数= sigma(单个卷积核参数个数*神经元个数)  (单个卷积核会用同样的卷积核参数,每多滑动一下,多生成参数个连接)

CNN权值共享就是同一个Feature Map中神经元权值共享,该Feature Map中的所有神经元使用同一个权值。这与全连接相比,参数减少太多了(整个图像的矩阵大小到卷积核的矩阵大小)

  • 2
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值