tensorflow fake quantization 伪量化训练-单GPU和多GPU

本文详细阐述了在TensorFlow中如何进行单GPU和多GPU的伪量化训练,包括fake quantization的概念、公式原理及其在计算图中的应用。此外,还介绍了将经过伪量化训练的checkpoint模型转换为PB格式模型的方法,特别强调了在添加伪量化节点的位置选择,以及数据并行和计算并行在多GPU训练时的注意事项。
摘要由CSDN通过智能技术生成

tensorflow fake quantization 伪量化训练

摘要:本文介绍tensorflow的单GPU和多GPU的伪量化训练。同时还介绍TensorFlow 为量化训练的checkpoint 格式的模型如何转换为PB格式的模型。

tensorflow伪量化训练简单说就是在训练的时候通过一个公式,使用float类型模拟int类型的运算。Fake quantization 需要在计算图中添加伪量化的节点,才能进行伪量化训练。同时该方法的训练出来的模型和一般checkpoint格式的模型转换PB格式模型的过程也有差异。

  • fake quantization的基本公式原理如下:
    q = r − m i n m a x − m i n ( q m a x − q m i n ) q=\frac{r-min}{max-min}(q_{max}-q_{min}) q=maxminrmin(qmaxqmin)
    where, q represents the previous fack quantization value, r is the value after fack quantization. q m a x
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值