知识蒸馏系列:蒸馏算法【标准蒸馏、DML蒸馏(互学习蒸馏)、CML蒸馏(协同互学习蒸馏)、U-DML蒸馏(统一互学习蒸馏)】

本文介绍了知识蒸馏的四种方法:标准蒸馏、DML蒸馏、CML蒸馏和U-DML蒸馏。标准蒸馏依赖教师模型指导学生模型;DML蒸馏则通过两个相同结构的模型互相学习;U-DML增加了中间特征的监督;CML蒸馏结合了协同学习和教师模型,适用于多模型蒸馏。这些技术提升了模型压缩和训练效率。
摘要由CSDN通过智能技术生成

知识蒸馏(Knowledge Distillation,简记为 KD)是一种经典的模型压缩方法,核心思想是通过引导轻量化的学生模型“模仿”性能更好、结构更复杂的教师模型(或多模型的 ensemble),在不改变学生模型结构的情况下提高其性能。

2015 年 Hinton 团队提出的基于“响应”(response-based)的知识蒸馏技术(一般将该文算法称为 vanilla-KD [1])掀起了相关研究热潮,其后基于“特征”(feature-based)和基于“关系”(relation-based)的 KD 算法被陆续提出。

现有的知识蒸馏方法主要有以下4种,

  • 标准蒸馏
  • DML蒸馏(互学习蒸馏)
  • CML蒸馏(协同互学习蒸馏)
  • U-DML蒸馏(统一互学习蒸馏)

1、标准蒸馏

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值