网络蒸馏
volga_chen
这个作者很懒,什么都没留下…
展开
-
Distillation论文总结(2)Distilling the Knowledge in a Neural Network
1原创 2018-12-12 19:27:48 · 468 阅读 · 0 评论 -
Distillation论文总结(1)Do Deep Nets Really Need to be Deep?
论文地址: NIPS2014; arxiv. 论文目录Do Deep Nets Really Need to be Deep?引言模仿学习训练浅层网络模型压缩用L2Loss回归来模仿学习引入线性层加速模仿学习TIMIT Phoneme Recognition目标检测: CIFAR-10讨论为什么蒸馏比直接训练原数据好浅网络的表征能力并行分布处理VS深度顺序处理未来工作结论 Do Deep Nets...原创 2018-12-12 11:49:31 · 434 阅读 · 0 评论 -
Distillation论文总结(3)Face Model Compression by Distill Knowledge from Neurons
论文目录Face Model Compression by Distill Knowledge from Neurons引言人脸模型压缩用神经元选择算法训练学生网络神经元的特征区分能力 Face Model Compression by Distill Knowledge from Neurons 目前一流的人脸识别都是用深度神经网络或者是其集成系统,然而,昂贵的计算成本阻碍了其实际应用。我们提出...原创 2018-12-18 12:50:30 · 663 阅读 · 0 评论