参数量和计算量

https://www.cnblogs.com/lllcccddd/p/10671879.html
https://www.cnblogs.com/hizhaolei/p/10175977.html
接下来要分别概述以下内容:

1 首先什么是参数量,什么是计算量

2 如何计算 参数量,如何统计 计算量

3 换算参数量,把他换算成我们常用的单位,比如:mb

4 对于各个经典网络,论述他们是计算量大还是参数两,有什么好处

5 计算量,参数量分别对显存,芯片提出什么要求,我们又是怎么权衡

1 首先什么是计算量,什么是参数量

计算量对应我们之前的时间复杂度,参数量对应于我们之前的空间复杂度,这么说就很明显了

也就是计算量要看网络执行时间的长短,参数量要看占用显存的量

2 如何计算 参数量,计算量

(1)针对于卷积层的

其中上面的公式是计算时间复杂度(计算量),而下面的公式是计算空间复杂度(参数量)

对于卷积层:

参数量就是  (kernel*kernel) channel_inputchannel_output

kernel*kernel 就是weight * weight

其中kernel*kernel = 1个feature的参数量

计算量就是  (kernelkernelmap*map) channel_inputchannel_output

kernelkernel 就是weightweight

mapmap是下个featuremap的大小,也就是上个weightweight到底做了多少次运算

其中kernelkernelmap*map= 1个feature的计算量

(2)针对于池化层:

无参数

(3)针对于全连接层:

参数量=计算量=weight_in*weight_out

3 对于换算计算量

1一般一个参数是值一个float,也就是4个字节,

21kb=1024字节

4 对于各个经典网络:

在这里插入图片描述

(1)换算

以alexnet为例:

参数量:6000万

设每个参数都是float,也就是一个参数是4字节,

总的字节数是24000万字节

24000万字节= 24000万/1024/1024=228mb

(2)为什么模型之间差距这么大

这个关乎于模型的设计了,其中模型里面最费参数的就是全连接层,这个可以看alex和vgg,

alex,vgg有很多fc(全连接层)

resnet就一个fc

inceptionv1(googlenet)也是就一个fc

(3)计算量

densenet其实这个模型不大,也就是参数量不大,因为就1个fc

但是他的计算量确实很大,因为每一次都把上一个feature加进来,所以计算量真的很大

5 计算量与参数量对于硬件要求

计算量,参数量对于硬件的要求是不同的

计算量的要求是在于芯片的floaps(指的是gpu的运算能力)

参数量取决于显存大小

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Transformer模型的参数取决于模型的大小和深度。一个常见的Transformer模型通常包含两个主要部分:Encoder和Decoder。在Encoder参数主要来自Self-Attention层和Feed-Forward层;在Decoder参数主要来自Self-Attention层、Encoder-Decoder Attention层和Feed-Forward层。 具体来说,Transformer模型的参数可以通过以下公式计算: ``` 参数 = (输入维度 * 隐藏维度 + 隐藏维度 * 隐藏维度 * 多头注意力头数) * 编码器层数 + (隐藏维度 * 隐藏维度 * 多头注意力头数 + 隐层维度 * 输出维度) * 编码器层数 + (输出维度 * 隐层维度 + 隐层维度 * 隐层维度 * 多头注意力头数) * 解码器层数 + (隐层维度 * 隐层维度 * 多头注意力头数 + 隐层维度 * 输入维度) * 解码器层数 ``` 其,输入维度是输入语言的词嵌入维度,隐藏维度是Transformer模型的隐藏层维度,多头注意力头数是每个注意力机制的注意力头数,编码器层数和解码器层数的是Transformer模型编码器和解码器的层数。 需要注意的是,上述公式并没有考虑位置编码(Positional Encoding)的参数。位置编码的参数取决于输入序列的长度,一般来说是与序列长度成正比的。 综上所述,Transformer模型的参数随着模型的大小、深度和输入序列长度的增加而增加。请注意,这只是一个大致估计,实际的参数可能还会受到其他因素的影响。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值