FP16\FP32\INT8\混合精度的含义

FP32 是单精度浮点数,用8bit 表示指数,23bit 表示小数,占用4字节;

FP16半精度浮点数,用5bit 表示指数,10bit 表示小数,占用2字节;

INT8,八位整型占用1个字节,INT8是一种定点计算方式,代表整数运算,一般是由浮点运算量化而来。在二进制中一个“0”或者“1”为一bit,INT8则意味着用8bit来表示一个数字。因此,虽然INT8比FP16精度低,但是数据量小、能耗低,计算速度相对更快,更符合端侧运算的特点;

混合精度:简单的讲就是使用fp16进行乘法和存储,只使用fp32进行加法操作,避免累加误差;

在数据表示范围上,FP32和BF16 表示的整数范围是一样的,小数部分表示不一样,存在舍入误差;FP32和FP16 表示的数据范围不一样,在大数据计算中,FP16存在溢出风险。

以下为int8范围为何是-128 至 127的解释

int8占1个字节,1字节(byte)占8位(bit)
 
其中最高位代表符号位 1-负号;0-正号
 
那么最大数值的二进制为:
0 1 1 1 1 1 1 1
换算成10进制为 从低位到高位开始计算
0       1       1       1       1       1       1       1
0*2^7 + 1*2^6 + 1*2^5 + 1*2^4 + 1*2^3 + 1*2^2 + 1*2^1 + 1*2^0
0     + 64    + 32    + 16    + 8     + 4     + 2     + 1
= 127
 
最小数值的二进制应与最大数值相反
1 0 0 0 0 0 0 0
换算成10进制为 从低位到高位开始计算
1       0       0       0       0       0       0       0
1*2^7 + 0*2^6 + 0*2^5 + 0*2^4 + 0*2^3 + 0*2^2 + 0*2^1 + 0*2^0
128   + 0     + 0     + 0     + 0     + 0     + 0     + 0
= 128
 
 
 
其实还有一种很好理解的解释
1.int8占1个字节(byte) 也就是8个二进制位(bit)
2.每个二进制位 可以存储0 和 1 两个数 ,8个二进制位就有2^8 = 256种组合(可以存储256个数)
3.int8为有符号,所以正数和负数将平分256个数。256 / 2 = 128
4.负数为128个数 最小值为-128
5.正数为128个数,0占一个数 最大值为+127
 
如果是uint8(8bit无符号-没有负数) 2^8 = 256
0 占一个数 ,所以最大是255

  • 4
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
INT8、FP16FP32是不同的数据类型用于表示数字的精度和存储方式。 INT8是指八位整型数据类型,占用1个字节,用8位二进制表示一个数字,它是一种定点计算方式,适用于对整数进行运算,虽然精度较低,但数据量小、能耗低,计算速度相对更快,适合在移动终端进行AI计算。 FP16是指半精度浮点数数据类型,占用2个字节,用16位二进制表示一个数字,其中1位为符号位,5位为指数位,10位为有效数字位。与FP32相比,FP16的访存消耗仅为1/2,因此在一些GPU中可以加速计算速度,但也容易造成溢出。 FP32是指单精度浮点数数据类型,占用4个字节,用32位二进制表示一个数字,其中1位为符号位,8位为指数位,23位为尾数位。FP32精度相对较高,但相应地需要更多的存储空间和计算资源。 因此,INT8适用于对整数进行计算的场景,FP16适用于移动终端等资源受限的场景,而FP32适用于需要较高精度的计算场景。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [FP32FP16INT8](https://blog.csdn.net/weixin_44942126/article/details/115014754)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [深度学习模型权重数值精度FP32,FP16,INT8数值类型区别](https://blog.csdn.net/baidu_39629638/article/details/121460896)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值