自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

时光机 °的博客

为了我的名字!

  • 博客(8)
  • 收藏
  • 关注

原创 【论文阅读笔记】PACT:PArameterized Clipping Activation for Quantized Neural Networks

全文概括  本文目的是将 activation 和 weight 一起量化,其结果能量化 activation 和 weight 到 4-bit 大小,且准确度能和 full precision 媲美(在一系列流行的模型和数据集上)。  该方法是提出一个新的激活函数,即PACT(PArameterized Clipping Activation),其作用在训练阶段。  提出该激活函数的背景是...

2018-10-09 14:07:51 5583

原创 【论文阅读笔记】Training Quantized Nets:A Deeper Understanding

全文概括  本文目的在于了解各种训练量化网络的方法的行为差异,成功或失败的原因。  本文证明了BC (用二进制权值进行 forward backward 更新权重由 full-precision )长期训练的行为具有非凸优化所需的重要退火特性,而经典的舍入算法缺乏这种特性。  本文证明了,对于非凸优化问题,SR(Stochastic Rounding)不会随着 lr 的衰减而稳定,即不会...

2018-10-08 21:20:50 683 2

原创 【论文阅读笔记】Network Sketching: Exploiting Binary Structure in Deep CNNs

全文概括  草图,就像在画画一样,是不断精确的基础,在二进制量化的应用上,即不断地逼近残差,如 HORQ (High-Order Residual Quantization) 一样。与 HORO 的区别在于,该方向并未二值化 Input,但其提出了一个新的 尺度因子的计算方式。  在 2-bit/ 1-bit 的极低精度的近似 ResNet-18 的结果展示上,其与 INQ 的精确度差不多,但...

2018-10-08 15:50:30 727

原创 【论文阅读笔记】Deep Neural Network Compression with Single and Multiple Level Quantization

全文概括  本文是《Quantized Convolution Neural Networks for Mobile Devices》和《Incremental Network Quantization:Towards Lossless CNN with Low-Precision Weights》的思想结合。参考了前者的分层量化和k-means聚类共享权值,参考了后者的INQ思想,即同一层分块...

2018-10-03 17:30:37 989

原创 【论文阅读笔记】Incremental Network Quantizatio:Towards Lossless CNNs with Low-Precision Weights

全文概括  先前的量化方法(同时量化所有的weight)都太粗暴了,这导致了量化损失严重,作者提出一种分组量化-分组re-train的方法来拟补量化带来的损失。  INQ方法步骤:将为量化的参数分成 待量化/待re-train组(用超参数定义每次量化的百分比,百分比会自动在参数中找到一个临界点,绝对值大于这个临界点的分为待量化组 ,因为作者认为大值比小值重要,让小的re-train。这个观...

2018-10-03 16:24:04 781 3

原创 LCDet:Low-Complexity Fully-Convolutional Neural Networks for Object Detectionin Embedded Systems

全文概括  本文的基本网络框架是YOLO,但用两层 conv 代替 两层 fc 。然后用 8-bit 量化了训练好的网络权重。Introduction   8-bit 量化回归任务,会比量化分类任务更容易造成精度下降。  经过试验显示,本文方法(量化后)的最高检测率比量化前的只低不到 1 2%1~2\%1 2%,但在帧率上达到了 202020x 倍的提升。  YO...

2018-10-03 01:10:38 225

原创 【论文阅读笔记】Performance Guaranteed Network Accelerationvia High-Order Residual Quantization

方法概括  该方法在总结前人的基础上(BNN,Binarized Neural Network;Xnor-Net),提出了一个High-Order(高阶)的二元逼近方法。高阶的定义在于,原始的逼近会存在量化残差(Residual Quantization),而用另一个矩阵去逼近“遗失”的参数,这是一个迭代的过程,也就是越来越高阶的过程。最后得到的逼近矩阵,是原始逼近 + 迭代“遗失”逼近。  ...

2018-10-02 23:08:08 444 2

原创 c++基础之uint8_t

C++的基础数据类型:名称字节长度取值范围bool1false,truechar1-128~127signed char1-128~127unsigned char10~255short(signed short)2-215 ~ 215 - 1unsigned short20~216-1int (signed in...

2018-10-02 17:08:22 92944 6

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除