关于卷积层,全连接层,池化层的相关输出参数计算

目录

说明

全连接层FC,全连接NN

卷积Convolutional

模型占用显存的计算 


为了更好的说明问题,\另一个文中进行说明,本文内容都是一些概念/理论的东西,都是抄的。

https://blog.csdn.net/weixin_39875161/article/details/88364442

说明

kernel  == filter

feature map ×n == output

Depth == channel

符号参数说明
Wi / Hi / CiWidth / Height / Depth of input
W Width of feature map
HHeight of feature map
DDepth of feature map
FSzie of filters
KNumber of th filters
SStrip of filter

 

全连接层FC,全连接NN

全连接 :每个神经元与前后相邻层的每一个神经元都有连接关系,输入是特征,输出为预测的结果。

  • 参数个数: FC前层 × FC后层
  • 计算量/乘法计算次数/times :  FC前层 × FC后层

待优化的参数过多, 容易导致模型过拟合。 为避免这种现象, 实际应用中一般不会将原始图片直接喂入全连接网络
将会产生大量的参数,是整个网络最大的累赘。

卷积Convolutional

卷积,是提取特征的过程,也可以说成是压缩数据。有三个参数,卷积核/卷积层中神经元感知域大小kernel,滑动步长strip,填充方法padding:same/valid。

例: 输入是 7×7,滤波器是 3×3,步长为 1,填充为 0,那么就能得到一个 5×5的输出。如果输入量是 32x32x3,核是 5x5x3,不用全零填充,输出是(32-5+1)/1=28。如果要让输出量保持在 32x32x3, 可以对该层加一个大小为 2 的零填充。 可以根据需求计算出需要填充几层零。 32=(32-5+2P) /1 +1, 计算出 P=2, 即需填充 2,如下图。

  • 卷积核的个数  :   卷积核的个数=最终的featuremap的个数  = D   通过上图可以看出来,他是作者自己订的。
  • 参数的个数/Space: 卷积核的尺寸 x 卷积的深度x输出深度 = F x F x D x K
  • 输出尺寸  :( 输入数据体尺寸-卷积核+2*零填充的数量)/步长+1 = (Wi - W + 1)/S + 1
  • 计算量/乘法计算次数/times  :  输入图像的尺寸x 卷卷积的尺寸 x 输入深度 x 输出深度= Wi x Hi x F x F x Di x D

普通的cnn来说 卷积的深度 == 输入数据的深度

模型占用显存的计算 

下面是抄得


显存的占用主要是Model本身和每一层的output。

\

计算方法

image

 

 

 

 


 

 

 

  • 10
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

颐水风华

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值