概念解析 | 知识蒸馏(Knowledge Distillation)
最新推荐文章于 2024-07-02 01:15:34 发布
知识蒸馏技术模仿教学过程,通过教师模型指导学生模型,实现模型压缩与加速。该技术源于2014年,通过使用教师模型的软目标和中间层表示作为训练信号,帮助学生模型在保持高性能的同时减小参数量。目前,研究已扩展到多种任务和信号,并面临匹配、可解释性和资源消耗等挑战。
摘要由CSDN通过智能技术生成