![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
网络压缩
文章平均质量分 92
Lumiran
心之所愿,无所不成。
展开
-
TTQ
Trained Ternary Quantization by ChenzhuoZhu 1 简介 使用了2个全精度尺度系数WlpW^p_lWlp,WlnW^n_lWln,并且把权重全部量化为三元组{−Wln,0,+Wlp}\{-W_l^n, 0, +W^p_l\}{−Wln,0,+Wlp}。而不是传统的{−1,0,+1}\{-1, 0, +1\}{−1,0,+1}或者{−E,0,+E}\{...原创 2018-09-26 18:01:07 · 1751 阅读 · 3 评论 -
XNOR-Net
XNOR 1 介绍 1、首先,介绍了一个新方法(BWN)二值化CNN中的权重数值。 2、介绍了XNOR-Nets,输入与权重同时进行二值化(激活也进行了二值化)。 2 相关工作 浅层网络 压缩预训练的深度网络 Optimal brain damage使用lossfunction的黑塞矩阵来裁剪一个网络by 减少连接数 量化 网络二值化 Soudry的那篇讲EBP的variational 贝叶斯方法...原创 2018-10-08 12:22:02 · 1094 阅读 · 0 评论 -
Epoch,Iterations and Batch_Size
最近复现论文的时候遇到的。原文说要把Alexnet训练800k个iteration,然而这个iteration具体是啥呢?网上下载下来的代码一般只给你指定一个args.Epoch,那么Iteration和batchsize和epoch数又有什么关系呢? We illustrate this issue by an example of ImageNet, which consist of 1200...原创 2019-03-26 13:24:03 · 247 阅读 · 0 评论