- 博客(3)
- 收藏
- 关注
转载 【网络优化】超轻量级网络SqueezeNet算法详解
转自: http://blog.csdn.net/shenxiaolu1984/article/details/51444525 Iandola, Forrest N., et al. “SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size.” arXiv preprint arXiv:
2017-05-19 15:52:51 1417
转载 神经网络压缩(3):Learning both Weights and Connections for Efficient Neural Network
这是2015年斯坦福和英伟达的一篇论文。转载自:http://blog.csdn.net/meanme/article/details/48713327之前介绍的两篇关于神经网络压缩的文章都是以这篇文章为基础进行的1.简介:通过修剪训练后网络中的不重要连接(connections),来减少网络所需要的参数,减少内存和cpu的消耗,使网络更加适应在移动设备上运行。2.idea思想:1)首先训练整
2017-05-02 19:29:06 952
原创 神经网络压缩:Mimic(一)Do Deep Nets Really Need to be Deep
Do Deep Nets Really Need to be Deep? 论文链接: http://arxiv.org/abs/1312.6184文章主旨 Shallow feed-forward nets can learn the complex functions previously learned by deep nets
2017-05-02 14:50:07 3114
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人