BF16 与 FP16 在模型上哪个精度更高呢【bf16更适合深度学习计算,精度更高】

一、浮点数的存储方式 

二、fp16与bf16的区别

BF16 是对FP32单精度浮点数截断数据,即用8bit 表示指数,7bit 表示小数。

FP16半精度浮点数,用5bit 表示指数,10bit 表示小数;

与32位相比,采用BF16/FP16吞吐量可以翻倍,内存需求可以减半。但是这两者精度上差异不一样,BF16 可表示的整数范围更广泛,但是尾数精度较小;FP16 表示整数范围较小,但是尾数精度较高。

那么,问题来了,两者性能加速比相似,但精度diff不一样,在哪些情况用BF16,哪些用FP16呢?

第二个问题:在ARM 上,高端机支持v8.2 指令集,提供FP16 运算指令;BF16 运算指令只能在V8.5 上支持,需要耐心等待。但现在开源框架上,有通过将FP32 数据截断方式,用int16 指令集代替BF16 计算,不

  • 2
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值