deep learning
文章平均质量分 77
ZxXxZxXxZxXxZ
zZ
展开
-
深入理解batch normalization批标准化
转载自:https://www.cnblogs.com/guoyaohua/p/8724433.htmlBatch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《Batc...转载 2018-12-10 14:15:49 · 235 阅读 · 0 评论 -
知识蒸馏(Knowledge Distillation)
转载文章原文链接:https://blog.csdn.net/nature553863/article/details/80568658 1、Distilling the Knowledge in a Neural NetworkHinton的文章"Distilling the Knowledge in a Neural Network"首次提出了知识蒸馏(暗知识提取)的概念,通过...转载 2018-12-25 20:23:55 · 1280 阅读 · 0 评论