BF16格式数据

BF16是一种相对较新的浮点数格式,又叫BFloat16或Brain Float16。
深度学习中一般不需要FP64,FP32这种高精度的浮点格式。虽然这两种浮点格式数据精度高,但也增加了存储成本和处理过程中的时间成本。如果有一种数据格式能解决FP64,FP32这两种数据格式的这两个缺点,同时又能满足一定的精度要求,那无疑会大大提高深度学习模型的推理速度和部署灵活性。

这种数据格式就是BF16,使用BF16算法的预测精度与FP32相似,但不如FP32精确(谷歌曾说过,这是因为神经网络对指数的大小比尾数敏感得多)。对于大多数应用程序,尤其是计算机视觉和语音方面,这种折衷是可以接受的。

BF16的指数位比FP16多,跟FP32一样,不过小数位比较少。这样设计说明了设计者希望在16bits的空间中,通过降低精度(比FP16的精度还低)的方式,来获得更大的数值空间(Dynamic Range),三种浮点数据格式指标比较如下所示:

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值