![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
quantization
文章平均质量分 84
holmosaint
这个作者很懒,什么都没留下…
展开
-
Accelerating deep convolutional networks using low-precision and sparsity
(这篇blog不涉及文中所探讨的dLAC设计的内容)这篇文章旨在不影响其准确率的情况下提高deep CNN的计算效率。作者采用了两种方法:1.使用2-bit代替原来的full precision进行训练和inference;2.跳过过于zero value的计算。1 low-precision deep CNN作者使用了先前研究者提出的ternary network的框架,使用2-bi...原创 2018-09-02 23:40:11 · 328 阅读 · 0 评论 -
Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference
摘要作者提出了一种只使用整数运算的quantization方式,比起float point运算效率更高。同时提出了一种相应的训练方式来保证quantization之后的准确率。这篇文章的方法提升了accuracy和on-device latency之间的trade off,并且可以在MobileNets上使用。1 introduction作者总结了目前有效将庞大的神经网络应用在资源更为...原创 2018-09-05 16:40:55 · 3952 阅读 · 3 评论 -
Ternary weight networks
这篇文章开发了一种新型的网络结构——ternary nearal networks(TWNs)。该网络所有的权值被限制在1,0,-1之中,只需要2-bit来存储权值信息。TWNs和全精度的网络之间的欧氏距离确保是最小的,为了高效地实现这一点,文章中使用了一个threshold-based function来近似。在性能方面,TWNs比起binary precision有更强大的描述性;同时和全...原创 2018-09-06 15:11:32 · 703 阅读 · 0 评论 -
XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks
这篇文章提出了两个二进制类的网络模型,一个叫做Binary-Weighted-Networks,一个叫做XNOR-Net。其中BWN只有filter是二进制的表达,而XNOR-Net在input和filter上都是二进制的表达。其中指出二进制的表达XNOR-Nets在执行卷积运算时能够提升58×的速度,而可以节省32×的内存空间,这为XNOR-Nets在CPU上运行提供了可能性。Binary-...原创 2018-09-13 16:20:39 · 903 阅读 · 1 评论