- 博客(5)
- 问答 (3)
- 收藏
- 关注
原创 INQ 论文解读:Incremental Network Quantization: Towards Lossless CNNs with Low-Precision Weights
这篇论文是ICLR 2017的一篇量化相关的论文。本文提出了一种渐进式量化的方法( INQ ):先分组量化,然后冻结已量化的部分并训练未量化的部分,重复以上步骤多次直到所有权重都被量化。这种渐进式量化的方法可以把一个预训练的全精度模型近乎无损地压缩成一个低精度的模型,在Alexnet,VGG,ResNet等模型上都表现良好,甚至可以压缩成三值模型,精确度比TWN等方法都要好。论文原地址:https://arxiv.org/abs/1702.03044v2点我下载论文更多论文解读欢迎来访我的博客:
2020-09-01 23:57:09 723 1
原创 ReActNet 论文解读:Towards Precise Binary Neural Network with Generalized Activation Functions
论文解读:ReActNet: Towards Precise Binary Neural Network with Generalized Activation Functions ( ReActNet )最新鲜的 ECCV 2020 ,二值神经网络精度首超ResNet? ReActNet 是 Bi-Real Net 作者在二值化研究领域的最新成果,精度达到了惊人的 69.4%,比著名的 XNOR-Net 的结果 51.2% 要高出了足足 18.2% ,所需的 FLOPs 仅是前者的一半!真的有这么神奇
2020-08-29 22:19:02 1380
原创 博弈论一般性解法总结
先是适用范围和限制条件:甲乙两人取石子游戏及其类似的游戏;每一步只能对某一堆石子进行操作;每一步操作的限制,只与这堆石子的数目或一些常数有关;操作在有限步内终止,并不会出现循环;谁无法继续操作,谁就是输家。(反过来也行,不过为了方便后面的说明才这样定义)然后做一些定义:用一个 n 元组(a1, a2, …, an),来描述游戏过程中的一个局面,局面用S表示;用符号#S,表示局面 S
2017-02-01 21:35:51 1704
原创 2016石门信息学夏令营
2016石门信息学夏令营为期两个星期的信息学夏令营结束了,其中大大小小的算法学了几乎10种,测试也测了几次。每天6点半起床10点多才回到宿舍睡觉,算起来每天耗在电脑前有几乎10个多小时呀!我的感受只有一个:感觉身体被掏空……累归累,这几天还是很开森的。学了新算法,和同学打模拟ACM赛(虽然最后惨败),每次看到自己YY的代码AC,这种感觉是常人难以体会的。或许这就叫做痛并快乐着吧!接下来就列
2016-08-16 22:28:48 471
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人