模型参数规模和模型参数大小的关系

470 篇文章 7 订阅
52 篇文章 3 订阅
文章探讨了模型参数量与实际模型大小之间的关系,指出参数量如1M需要4MB存储,考虑网络架构和优化器信息会更大。通过例子,如Bert基础模型的110M参数对应400M的模型大小,说明了参数量与模型文件尺寸的比例,并提及量化技术如何减少存储需求。
摘要由CSDN通过智能技术生成

看到的新闻都是说大模型有几千万的参数。但是实际用模型的时候,都是下载,几百兆或者一两G的模型。

比较:

一个是参数量,一个是模型大小。

模型除了参数之外,还包括网络架构信息和优化器信息等。

有一个模型参数量是1M(数量的1M是一百万),在一般的深度学习框架中(比如说PyTorch),一般是32位存储。32位存储的意思就是1个参数用32个bit来存储。那么这个拥有1M参数量的模型所需要的存储空间的大小即为:1M * 32 bit = 32Mb = 4MB。

即1M(一百万)的参数,需要的存储空间是4M。加上网络架构信息和优化器信息等,肯定更大。

由此推理(都是大约):

1千万的参数,40M

一亿的参数,400M

10亿的参数,4G

1000亿的参数,400G

1w亿的参数,4000G

因为1 Byte = 8 bit。现在的quantization技术就是减少参数量所占的位数:比如用8位存储,那么:所需要的存储空间的大小即为:1M * 8 bit = 8Mb = 1MB。

然后验证一下:

已知:Bert的Base model参数大小是110M(110million的参数),Bert的Base model的模型大小是400M。

差不多,就是参数量1M,内存对应4M。 也就是bert base是1亿的参数量.现在模型都搞到1w亿了。阔怕

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值