神经网络中的参数量和FLOPs的计算

1. 引言

在看论文时,经常会看到计算CNN的parameters、FLOPs等评价指标,用来评价神经网络在推理运算上的速度与性能。本文将要来一一介绍这些指标以及相应的计算公式。
闲话少说,我们直接开始吧!

2. 参数量

2.1 原理

Parameters为模型中所有需要学习的参数量,包括卷积层、全连接层等,同时也会反映出模型占用的內存大小,当参数量越大,所需的內存就越多。

CNN中卷积层的参数由卷积核权重与bias组成,假设input feature map的维度为H_in× W_in× C_in、kernel size为K_h× K_w,总共有C_out个kernel、output feature map的维度为H_out× W_out× C_out。

此时,卷积核的参数量是K_h× K_w× C_in× C_out,而bias的参数量是C_out,因此CNN的参数量如下图所示为两者的相加。
在这里插入图片描述
上述过程图示如下:
请添加图片描述

2.2 示例

接下来我们来看个具体的例子吧,假设input feature map的维度为5× 5× 3、kernel数量为7个且kernel size为3× 3、output feature map的维度为3× 3× 7,这样一层的计算量为3× 3× 3× 7 + 7 = 196。

上述过程图示如下:
请添加图片描述

2.3 实操

Parameters可以使用pytorch library torchinfo来进行计算,示例代码如下:

# 安裝 torchinfo
$ pip install torchinfo
# ================================
from torchinfo import summary
import torch
import torch.nn as nn
# 自定义模型
class MyModel(nn.Module):
    def __init__(self, in_channels, out_channels):
        super(MyModel, self).__init__()
        self.layer = nn.Conv2d(in_channels, out_channels, (3, 3))
        
    def forward(self, x):
        x = self.layer(x)
        
model = MyModel(3, 7)
batch_size = 16
summary(model, input_size=(batch_size, 3, 5, 5))

输出如下:
请添加图片描述

3. FLOPs

3.1 原理

FLOPs全名为floating point operations(浮点数的运算数),指模型前向传播的计算量、计算速度,用于衡量模型的复杂度。模型在前向传播的过程,在卷积层、池化层、Batch Norm、active function、Upsample、Downsample等都会产生计算量,尤其是在卷积层上占比最高。这些计算量对于模型的部署有很大的影响。

❗ 值得注意的是FLOPs与FLOPS(floating point operations per second)不同,全大写的FLOPS是指每秒浮点数的运算次数,用于衡量硬件性能。

FLOPs的计算分为卷积核权重与bias两部分(Wx+b),令input feature map的维度为H_in× W_in× C_in、kernel size为K_h× K_w,且总共有C_out个kernel、output feature map的维度为H_out× W_out× C_out

3.2 示例

首先我们计算kernel的计算量,在进行一次卷积运算时,会需要(K_h× K_w× C_in)次乘法+(K_h× K_w× C_in -1)次加法。
举个例子,若input feature map的维度为5× 5× 1、kernel数量为1个且kernel size为3× 3、output feature map的维度为3× 3× 1。如下图所示,总共会有3× 3× 1 = 9个乘法、3× 3× 1 -1 = 8个加法。
请添加图片描述
接着是bias的计算量,bias只有加法的计算,在进行一次卷积运算时,若有bias则加1。因此考虑有bias后卷积层的计算量为(K_h× K_w× C_in)次乘法+(K_h× K_w× C_in -1 +1)次加法= 2× K_h× K_w× C_in

因此输出feature map的总计算量就会是2× K_h× K_w× C_in× H_out× W_out× C_out。上述过程,使用公式表示如下:
请添加图片描述
有时论文会使用别的单位,以下为不同单位间的换算公式:
请添加图片描述

4. 总结

最后,我们从原理到例子,由前入深地介绍了卷积神经网络中卷积层参数量和计算量的定义。

您学废了嘛?

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

赵卓不凡

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值