自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

转载 神经网络压缩(9) WAE-Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

转载自: http://blog.csdn.net/u011995719/article/details/78900575WAE(Wavelet-like Auto-Encoder) 是由来自中大、哈工大、桂电等多机构的多名研究人员合作提出的,发表于AAAI-2018(论文地址: https://arxiv.org/pdf/1712.07493.pdfgithub创新点: 1.

2018-01-06 17:13:19 1520

原创 pycaffe实例

分享一个很不错的讲解pycaffe的链接 http://christopher5106.github.io/deep/learning/2015/09/04/Deep-learning-tutorial-on-Caffe-Technology.html

2017-08-17 10:58:05 768

原创 神经网络压缩(8)Incremental Network Quantization: Towards Lossless CNNs with Low-precision Weights

Incremental Network Quantization: Towards Lossless CNNs with Low-precision WeightsIntro英特尔中国研究院:INQ神经网络无损低比特量化技术 给定任意结构的全精度浮点神经网络模型,能将其转换成无损的低比特二进制模型

2017-07-19 15:05:58 8261 1

原创 神经网络压缩(7)Soft weight-sharing for neural network compression

Soft weight-sharing for neural network compressionAbstractachieves both quantization and pruning in one simple (re-)training procedure

2017-06-29 16:36:10 4421 5

原创 神经网络压缩(6):Exploring the Regularity of Sparse Structure in Convolutional Neural Networks

Exploring the Regularity of Sparse Structure in Convolutional Neural Networks方法介绍目的: 探索稀疏性和预测精度之间的关系 能不能在稀疏性的规则中找到一个平衡点,这个点是如何提升硬件实现效率的为了探索上面的问题,文章设置了几种不同的剪枝粒度等级,在前人的基础上进行对比实验,探索剪枝粒度和预测精度之间的关系

2017-06-29 16:32:49 2975

转载 【网络优化】MobileNets

转自:http://blog.csdn.net/cv_family_z/article/details/70847482?locationNum=1&fps=1MobileNets用于手机或嵌入式视觉应用,提出使用depthwise separable convolutions 构造轻量化的深度神经网络,并使用两个全局超参数Width Multiplier和Resolution Multiplier减少参数数量。

2017-06-28 16:38:31 3391 1

转载 神经网络压缩(5):BinaryNet

转载自:http://blog.csdn.net/jackytintin/article/details/534452801. BinaryNet

2017-06-27 17:57:59 1619

转载 神经网络压缩(4) Learning Structured Sparsity in Deep Neural Networks

转载自:http://blog.csdn.net/wangqingbaidu/article/detailsLearning Structured Sparsity in Deep Neural Networks

2017-06-13 20:51:23 3075

转载 神经网络压缩:Mimic(二)Distilling the Knowledge in a Neural Network

转载请注明出处:西土城的搬砖日常

2017-06-09 14:17:56 7785 1

原创 神经网络压缩(3):Learning both Weights and Connections for Efficient Neural Network

Learning both Weights and Connections for Efficient Neural NetworksAbstract目的:减少存储量和计算量,使网络更适合在移动设备上运行方法:简单地说是只学习重要的连接,修剪冗余的连接减少模型参数

2017-06-07 22:05:01 5364

转载 【网络优化】超轻量级网络SqueezeNet算法详解

转自: http://blog.csdn.net/shenxiaolu1984/article/details/51444525 Iandola, Forrest N., et al. “SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size.” arXiv preprint arXiv:

2017-05-19 15:52:51 1432

转载 神经网络压缩(3):Learning both Weights and Connections for Efficient Neural Network

这是2015年斯坦福和英伟达的一篇论文。转载自:http://blog.csdn.net/meanme/article/details/48713327之前介绍的两篇关于神经网络压缩的文章都是以这篇文章为基础进行的1.简介:通过修剪训练后网络中的不重要连接(connections),来减少网络所需要的参数,减少内存和cpu的消耗,使网络更加适应在移动设备上运行。2.idea思想:1)首先训练整

2017-05-02 19:29:06 958

原创 神经网络压缩:Mimic(一)Do Deep Nets Really Need to be Deep

Do Deep Nets Really Need to be Deep? 论文链接: http://arxiv.org/abs/1312.6184文章主旨 Shallow feed-forward nets can learn the complex functions previously learned by deep nets

2017-05-02 14:50:07 3135

转载 神经网络压缩(2): Dynamic Network Surgery for Efficient DNNs

转自:http://blog.csdn.net/zhangjunhit/article/details/53218211NIPS 2016 http://arxiv.org/abs/1608.04493文章是以Song Han,2015年的一篇文章文参考文献的;Song Han在2016年也发表了一篇关于模型压缩的文章并且获得了ICLR 2016 best paper(见上一篇博客)

2017-04-28 13:55:50 3691 1

转载 神经网络压缩(1):Deep Compression

本次介绍的方法为“深度压缩”,文章来自2016ICLR最佳论文 《Deep Compression: Compression Deep Neural Networks With Pruning, Trained Quantization And Huffman Coding

2017-04-28 13:47:01 3597

转载 IEEE754浮点数格式详解

IEEE754浮点数格式详解 几乎所有计算机都支持二进制数据表示,即能直接识别二进制数据表示并具有相应的指令系统。通常采用的二进制定点数据表示主要有:符号数值、反码、补码以及带偏移增值码四种形式,其中最常用的是补码形式,这些都已在计算机组成原理课程中做了详细讨论,这里不再阐述。 二进制浮点数的表示,由于不同机器所选的基值、尾数位长度和阶码位长度不同,因此对浮点数表示有较大差别,这就不利于软件在不

2017-04-28 13:21:28 19829 1

转载 c/c++: uint8_t uint16_t uint32_t uint64_t size_t ssize_t数据类型

unit8_t,unit16_t,unit32_t

2017-04-28 13:10:53 494

原创 cmake安装、用法

cmake安装、用法cmake是一个跨平台的安装(编译)工具,可以用简单的语句来描述所有平台的安装(编译过程)。cmake演示helloworld

2017-04-24 12:54:44 1040

转载 GANs学习系列(2):cGANs:Conditional Generative Adversarial Networks

reference: http://blog.csdn.net/u011534057/article/details/53409968条件生成式对抗网络(Conditional Generative Adversarial Networks )

2017-04-23 15:12:23 4559 1

转载 GANs学习系列(1): GANs:Generative Adversarial Networks

reference: http://blog.csdn.net/u011534057/article/details/52840788生成对抗网络(Generative Adversarial Network)

2017-04-23 15:05:20 1735

原创 查看python,numpy,scipy,matplotlib的版本及版本更新

查看python,numpy,scipy,matplotlib的版本及版本更新

2017-04-21 10:51:04 65652 4

原创 相机标定概念性问题

相机标定概念性问题概述概念坐标系变换应用问题

2017-04-18 17:06:57 2043

原创 Caffe解读(三)

Caffe 梳理net.cpp

2017-03-25 10:46:47 6842

原创 Caffe解读(二)

Caffe学习(二) 路线图 protobuf核心类

2017-03-17 22:45:46 481

原创 Caffe解读(一)

Caffe 基本架构 理解caffe的架构,包括blob,layer,net,solver,tools的关系等源码文件结构tools 保存的源码是用于生成二进制处理程序的,caffe在训练时实际是直接调用这些二进制文件include Caffe的实现代码的头文件src 实现Caffe的源文件gtest: google test一个用于测试的库你make runtest时看见的很多

2017-03-12 13:29:32 630

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除