模型压缩
文章平均质量分 95
Shwan_Ma
模式识别小硕,向大牛看齐!
展开
-
【模型压缩】知识蒸馏-Distilling the Knowledge in a Neural Network
这篇文章是Hinton的大作,采用了一个很特别的方式(知识蒸馏,KT, Knowledge distillation)来进行模型压缩。言而总之,就是预先训练一个大模型去调教小模型,使得小模型更够在应用端更好的跑起来。文章地址:Distilling the Knowledge in a Neural Network, Hinton et al, 2015为什么要采用知识蒸馏呢作者认为对于分类模...原创 2019-03-15 22:37:42 · 1976 阅读 · 0 评论 -
【模型压缩】训练时量化--training aware quantization
本文来自谷歌CVPR2018的文章:Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference代码已经在tensorflow中集成了https://github.com/tensorflow/tensorflow/tree/master/tensorflow/cont...原创 2019-05-22 20:48:21 · 12699 阅读 · 1 评论