CNN需要训练的参数个数(Param #)计算

设计好CNN模型后,常见的模型摘要如下图所示,大家有没有想过,里面的参数个数(Param #)是如何计算出来的呢?
在这里插入图片描述
最简单的是Dense层,即全连接层(FC),输入参数就是前一层的输出,例如上图中,Dense层,输入参数个数就是78400,即每个神经元都有78400个输入,根据神经元计算公式 Y = W*X + b,对应的w有78400个,外加偏置b,每个神经元共计(78400+1)个参数需要训练。

    dense层共有512个神经元,所以需要训练的参数共计 (78400+1)× 512 = 40141312;

    dense_1层:(512+1)×1=513

    池化层(Pooling)没有需要训练的参数。

    卷积层(Conv2D)本质是在训练卷积核(Kernel),假设输入为i,本层的卷积核个数为j,卷积核为n*m,则需要训练的参数个数为:N = (n*m*i+1)*j

    Conv2d 层中,i=1,j=16,n=m=3,所以N=(3*3*1+1)*16=448;

    Conv2d_1 层中,i=16,j=32,n=m=3,所以N=(3*3*16+1)*32=4640;

    Conv2d_2 层中,i=32,j=64,n=m=3,所以N=(3*3*32+1)*64=18496;

    需要训练的参数个数总计(Trainable params: 448+4640+18496+40141312+513=40165409

原文链接:https://www.jianshu.com/p/02a67e187a72

  • 3
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值