2022-ICLR-Fixed-point 8bit only Multiplication for Network Quantization--仅需八位定点数乘法的网络量化方法

第一部分:论文翻译

在这里插入图片描述

Abstract

         神经网络量化是一种很有前途的压缩技术,可以减少内存占用节省能耗,有可能导致实时推理。然而,量化模型和全精度模型之间存在性能差距。为了减少这种影响,现有的量化方法在进行缩放或反量化推理时需要高精度INT32或全精度乘法。这就需要消耗大量的内存。为了解决这些问题,我们提出了F8Net,这是一种仅由定点8位乘法组成的新型量化框架。为了推导我们的方法,我们首先讨论了不同格式的定点数的定点乘法的优点,并研究了相关的定点数的统计行为。其次,基于统计和算法分析,我们对不同层的权重和激活应用不同的定点格式。我们引入了一种新的算法,在训练过程中自动确定每一层的正确格式第三,我们分析了以前的量化算法——参数化剪裁激活(PACT)——并使用定点算法对其进行了重新表述。最后,我们结合最近提出的量化微调方法和我们的定点方法来展示我们方法的潜力。我们在ImageNet上为MobileNet V1/V2和ResNet18/50验证了F8Net。我们的方法不仅与使用INT32乘法或浮点算法的现有量化技术相比,而且与

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
在 2021-2022 年发表的强化学习论文有很多,以下是一些有代表性的论文: 1. "Soft Actor-critic: Off-policy maximum entropy deep reinforcement learning with a stochastic actor",发表在 NeurIPS 2021 会议上,作者:Tuomas Haarnoja, Aurick Zhou, Pieter Abbeel, Sergey Levine。这篇论文提出了一种新的强化学习算法——软 Actor-critic,它能够在离线数据上进行高效的学习。 2. "Multi-Agent DDPG: Cooperative and Competitive MARL with Deep Actor-critic Networks",发表在 ICML 2021 会议上,作者:Tianhe Yu, George Tucker, Jan Lehnert, Ruslan Salakhutdinov, Yuhuai Wu。这篇论文提出了一种新的多智能体强化学习算法——多智能体 DDPG,它能够同时处理合作和竞争强化学习问题。 3. "Reinforcement Learning with Unsupervised Auxiliary Tasks",发表在 ICLR 2021 会议上,作者:Lukasz Kaiser, Ofir Nachum, Aurko Roy, Samy Bengio。这篇论文提出了一种新的强化学习方法,它使用无监督辅助任务来加速学习。 4. "Self-Supervised State Representation Learning for Deep Reinforcement Learning",发表在 NeurIPS 2020 会议上,作者:Szymon Sidor, Marcin Andrychowicz, Alex Ray, Jonas Schneider, Bradly Stadie, Wojciech Zaremba。这篇论文提出了一种新的自监督强化学习方法,它使用自监督学习来学习有效的状态表示。 这只是其中的一小部分,在过去的两年里强化学习领域发表的论文数量非常

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

土豆娃potato

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值